홈
자연어 처리 (NLP)
자연어처리(NLP) 개요
텍스트 전처리(Text Preprocessing) 개요
토큰화(Tokenization) 개요
한국어 토큰화가 어려운 이유(형태소 분석기 vs BPE)
서브워드 토큰화(Subword Tokenization)와 BPE(Byte-Pair Encoding)
원-핫 인코딩(One-hot Encoding)과 한계
미니배치(mini batch) 생성과정
주요 자연어처리 Task
자연어 이해 (NLU)
벡터화 방식의 두 갈래(Sparse, Dense)
워드 임베딩(Word Embedding) 개요
토큰화·벡터화·임베딩 표 (한 눈에 보기)
유사도 (Similarity) 개요
RNN(Recurrent Neural Network)이란?
RNN의 한계와 Gated RNN의 등장
[이론] 텍스트 분류(text classification) 정리
[실습] 텍스트 분류(text classification) 코드 정리
자연어 생성 (NLG)
퍼플렉시티(Perplexity)와 크로스엔트로피(Cross-Entropy) 관계
어텐션(Attention)과 티처포싱(Teacher Forcing)
Seq2seq(Sequence-to-Sequence)란?
어텐션(Attention) 메커니즘이의 개요
트랜스포머(Transformsers)의 개요와 Multi-Head Attention Concept