ML & DL
2021. 2. 10.
[NLP] Language Model, Seq2Seq, Attention
Stanford Univ. cs224n(2019) 강의를 듣고 정리한 내용입니다. Language Model(LM) 현재까지 주어진 문장의 다음 단어를 예측하는 모델, eg) 인터넷 검색 자동완성. 수식으로 보면 다음과 같다. $P(x^{(t+1)} | x^{(t)}, . . , x^{(1)})$ 이 조건부 확률을 marginal들의 곱으로 표현해 joint로 나타내면 아래와 같이 전체 sequence의 확률을 표현할 수 있다. $P(x^{(1)}, .. , x^{(T)}) = \prod_{t=1}^{T}P(x^{(t)}|x^{(t-1)}, .. ,x^{(1)})$ 즉, 어떤 sequence의 확률을 LM의 곱으로 표현할 수 있다. 즉 LM은 특정 sequence에 확률을 할당하므로, 이를 NLP에 적용..