• 홈
  • 자연어 처리 (NLP)
    • 자연어처리(NLP) 개요
    • 텍스트 전처리(Text Preprocessing) 개요
    • 토큰화(Tokenization) 개요
    • 한국어 토큰화가 어려운 이유(형태소 분석기 vs BPE)
    • 서브워드 토큰화(Subword Tokenization)와 BPE(Byte-Pair Encoding)
    • 원-핫 인코딩(One-hot Encoding)과 한계
    • 미니배치(mini batch) 생성과정
    • 주요 자연어처리 Task
  • 자연어 이해 (NLU)
    • 벡터화 방식의 두 갈래(Sparse, Dense)
    • 워드 임베딩(Word Embedding) 개요
    • 토큰화·벡터화·임베딩 표 (한 눈에 보기)
    • 유사도 (Similarity) 개요
    • RNN(Recurrent Neural Network)이란?
    • RNN의 한계와 Gated RNN의 등장
    • [이론] 텍스트 분류(text classification) 정리
    • [실습] 텍스트 분류(text classification) 코드 정리
  • 자연어 생성 (NLG)
    • 퍼플렉시티(Perplexity)와 크로스엔트로피(Cross-Entropy) 관계
    • 어텐션(Attention)과 티처포싱(Teacher Forcing)
    • Seq2seq(Sequence-to-Sequence)란?
    • 어텐션(Attention) 메커니즘이의 개요
    • 트랜스포머(Transformsers)의 개요와 Multi-Head Attention Concept