Mengungkap Opini Publik: Pendekatan BERT-based-caused untuk Analisis Sentimen pada Komentar Film

  • Mudding A
N/ACitations
Citations of this article
126Readers
Mendeley users who have this article in their library.

Abstract

BERT (Bidirectional Encoder Representations from Transformers) adalah model bahasa yang revolusioner dalam pemrosesan bahasa alami, mengandalkan encoder untuk menghasilkan representasi kontekstual dari teks input. Melalui pendekatan tokenisasi, embedding, dan attention mechanisms pada setiap layer transformer, BERT memungkinkan pemahaman hubungan antar kata secara mendalam dan bidireksional. Keunikan BERT terletak pada kemampuannya untuk memproses konteks dari kedua arah, menciptakan representasi vektor yang kaya makna. Model ini telah menjadi pionir dalam transfer learning di NLP, memungkinkan pemanfaatan representasi umum pada tugas-tugas khusus setelah proses pelatihan. Dengan demikian, BERT mengubah paradigma pemrosesan bahasa alami, membuka pintu untuk aplikasi yang lebih canggih seperti klasifikasi teks, analisis sentimen, dan pemahaman bahasa yang lebih kontekstual.

Cite

CITATION STYLE

APA

Mudding, A. A. (2024). Mengungkap Opini Publik: Pendekatan BERT-based-caused untuk Analisis Sentimen pada Komentar Film. Journal of System and Computer Engineering (JSCE), 5(1), 36–43. https://doi.org/10.61628/jsce.v5i1.1060

Register to see more suggestions

Mendeley helps you to discover research relevant for your work.

Already have an account?

Save time finding and organizing research with Mendeley

Sign up for free