BGE központi honlap
Hallgatói fiók
EN - English

Budapesti Gazdaságtudományi Egyetem

Budapesti Gazdaságtudományi Egyetem

  • Fókuszban
      • Fókuszban
      • Portfólió áttekintés
      • Gazdasági & társadalmi hatás
      • Díjak & elismerések
      • Rendezvények & tudásmegosztás
  • Portfólió
      • Kutatási portfólió
      • Vállalkozás- és Gazdálkodástudományi Doktori Iskola
      • BGE Tudástérkép
      • Kiválósági Központok
      • Prosperitas
      • Tématerületi Kiválóság Projekt
  • Tehetséggondozás & szolgáltatások
      • Tehetséggondozás & szolgáltatások
      • TDK
      • Szakkollégiumok
      • Kutatási Iroda
      • Könyvtár
  • Kiválósági Központok
      • Kiválósági Központok
      • Budapest LAB Vállalkozásfejlesztési Központ
      • Felsőoktatás Jövője Kiválósági Központ
      • Jövő Értékláncai Kiválósági Központ
      • A Fenntarthatóság Gazdasági és Társadalmi Hatásai Kiválósági Központ
      • Látogatógazdaság Kiválósági Központ
Nyitólap >
Advancements in Text Subjectivity Analysis: From Simple Approaches to BERT-Based Models and Generalization Assessments
Budapesti Gazdaságtudományi Egyetem
Tudomány
Budapesti Gazdaságtudományi Egyetem
Keresés
Menü
Keresés
Menü
Advancements in Text Subjectivity Analysis: From Simple Approaches to BERT-Based Models and Generalization Assessments
2024. szeptember 25.
Advancements in Text Subjectivity Analysis: From Simple Approaches to BERT-Based Models and Generalization Assessments
# Tudomány
# Kutatás

Advancements in Text Subjectivity Analysis: From Simple Approaches to BERT-Based Models and Generalization Assessments címmel jelent meg Margit Antal, Krisztian Buza, Szilárd Nemes írása a Communications in Computer and Information Science, vol 2165. Springer, Cham folyóirat.

Absztrakt:

Text subjectivity is an important research topic due to its applications in various domains such as sentiment analysis, opinion mining, social media monitoring, clinical research and patient feedback analysis. While rule-based approaches dominated this field at the beginning of the 21st century, contemporary works rely on transformers, a specific neural network architecture designed for language modeling. This paper explores the performance of various BERT-based models, including our fine-tuned BERT (Bidirectional Encoder Representations from Transformer) model, and compares them with pre-built models. To assess the generalization abilities of the models, we evaluated the models on benchmark datasets. Additionally, the models underwent evaluation on two synthetic datasets created using large language models. To ensure reproducibility, we have made our implementation publicly available at https://github.com/margitantal68/TextSubjectivity.

A szerzőknek gratulálunk!

2025 - Budapesti Gazdaságtudományi Egyetem - Minden jog fenntartva v1.12.0
Hasznos linkek
  • Közérdekű adatok
  • Intézményi tájékoztató
  • Informatikai útmutatók
  • Elérhetőségek
  • Pályázati felhívások
  • Fejlesztéseink
  • Felhasználási feltételek
  • Süti beállítások
  • Adatkezelési tájékoztató
  • Akadálymentesítési nyilatkozat
  • Hallgatói Követelményrendszer
  • Visszaélés-bejelentési rendszer
Kövess minket
készítette