Large Language Models & NLP

Memahami Pemrosesan Bahasa Natural & LLM

1
20 Mei 2026

Intuisi NLP

Mulai perjalanan NLP dengan memahami bagaimana mesin memproses bahasa manusia. Pelajari konsep encoder-decoder, word embeddings, dan bagaimana model seperti ChatGPT bekerja.

Yang Akan Dipelajari:

  • Konsep Natural Language Processing
  • Cara mesin memahami bahasa manusia
  • Encoder dan Decoder
  • Word Embedding dan konteksnya
  • Cara model menghasilkan teks
Mulai Belajar
2
20 Mei 2026

Text Preprocessing

Belajar membersihkan dan mempersiapkan data teks untuk model machine learning. Pelajari teknik preprocessing yang penting untuk klasifikasi sentimen dan NLP tasks lainnya.

Yang Akan Dipelajari:

  • Menghilangkan noise dari teks
  • Tokenisasi dan stemming
  • Stopwords removal
  • Normalisasi teks
  • Preprocessing untuk sentiment analysis
Mulai Belajar
3
20 Mei 2026

Feature Extraction

Pelajari cara mengubah teks menjadi representasi numerik yang dapat dipahami oleh model machine learning. Eksplorasi berbagai teknik ekstraksi fitur dari teks.

Yang Akan Dipelajari:

  • Bag of Words (BoW)
  • TF-IDF (Term Frequency-Inverse Document Frequency)
  • N-grams
  • Feature engineering untuk NLP
  • Perbandingan metode ekstraksi
Mulai Belajar
4
22 Mei 2026

Intuisi Word Embedding

Pahami konsep word embedding secara mendalam. Lihat bagaimana kata-kata dapat direpresentasikan dalam ruang vektor multidimensi yang menangkap makna semantik.

Yang Akan Dipelajari:

  • Konsep vector space model
  • Semantic similarity
  • Visualisasi word embeddings
  • Konteks dan hubungan antar kata
  • Dimensi dalam word embeddings
Mulai Belajar
5
22 Mei 2026

Word Embedding Deep Dive

Eksplorasi mendalam tentang berbagai teknik word embedding. Pelajari cara membuat dan menggunakan word embeddings untuk tugas NLP praktis.

Yang Akan Dipelajari:

  • Pre-trained embeddings (GloVe, FastText)
  • Training custom embeddings
  • Embedding layer dalam neural networks
  • Fine-tuning embeddings
  • Aplikasi praktis embeddings
Mulai Belajar
6
22 Mei 2026

Word2Vec

Pelajari salah satu algoritma word embedding paling populer: Word2Vec. Pahami arsitektur CBOW dan Skip-gram serta cara mereka belajar representasi kata.

Yang Akan Dipelajari:

  • Arsitektur Word2Vec
  • CBOW (Continuous Bag of Words)
  • Skip-gram model
  • Training Word2Vec
  • Analogi kata dan operasi vektor
Mulai Belajar
7
22 Mei 2026

Recurrent Neural Networks

Masuk ke dunia neural networks untuk sequence data. Pelajari RNN, LSTM, dan GRU untuk memproses data sekuensial seperti teks dan time series.

Yang Akan Dipelajari:

  • Konsep Recurrent Neural Networks
  • LSTM (Long Short-Term Memory)
  • GRU (Gated Recurrent Unit)
  • Vanishing gradient problem
  • Aplikasi RNN untuk NLP
Mulai Belajar
8
25 Mei 2026

Sequence-to-Sequence dengan RNN

Pelajari arsitektur Seq2Seq yang revolusioner untuk tugas seperti machine translation dan text summarization. Pahami konsep encoder-decoder dalam konteks RNN.

Yang Akan Dipelajari:

  • Arsitektur Encoder-Decoder
  • Seq2Seq dengan RNN
  • Machine translation
  • Text generation
  • Handling variable-length sequences
Mulai Belajar
9
25 Mei 2026

Attention Mechanism

Pahami mekanisme attention yang menjadi fondasi model transformer modern. Pelajari bagaimana model "fokus" pada bagian relevan dari input untuk menghasilkan output yang lebih baik.

Yang Akan Dipelajari:

  • Konsep Attention Mechanism
  • Self-attention
  • Multi-head attention
  • Attention dalam Seq2Seq
  • Visualisasi attention weights
Mulai Belajar
10
25 Mei 2026

Memahami Arsitektur LLM

Rekap konsep encoder, decoder, dan cara keduanya bekerja sama dalam arsitektur modern. Cocok sebagai jembatan sebelum masuk ke model transformer yang lebih kompleks.

Yang Akan Dipelajari:

  • Peran encoder dan decoder
  • Context vector dan alur informasi
  • Attention di sisi encoder
  • Attention di sisi decoder
  • Sumber belajar lanjutan
Mulai Belajar