Intuisi Word Embedding

Memahami bagaimana kata direpresentasikan sebagai vektor

Lanjut Belajar

Arsitektur Kedua: Word Embedding untuk Klasifikasi Sentimen

Tujuan dari pembelajaran dengan arsitektur kedua ini adalah untuk memahami bagaimana word embedding dapat menciptakan relasi semantik antar kata. Kita akan menggunakan arsitektur RNN nanti untuk memanfaatkan word embedding sepenuhnya.

Dari intuisi hingga matematika, pemahaman konsep word embedding & arsitektur RNN dasar diharapkan dapat memuaskan rasa ingin tahu Anda tentang bagaimana sebuah model benar-benar dapat memahami sebuah kalimat.

Word Embedding Representasi vektor untuk kata
GloVe Global Vectors for word representation
Relasi Semantik Kata dengan makna serupa memiliki vektor yang dekat
Dimensi Setiap dimensi menangkap konteks berbeda
Kesamaan Mengukur seberapa mirip dua kata
t-SNE Reduksi dimensi untuk visualisasi