Expectation Maximization
Expectation Maximization is an one of iterative optimization algorithm for finding the maximum likelihood estimate of certain variables. Useful when the parameters are interdependent and cannot be derived analytically.
iterative algorithm that has two main steps
Given there are two interdependent parameter sets A and B
- We fix one set of parameters (A) to calculate the best set of values for the other set (B)
- Use the best value for set B and calculate best values for set A
Iterate until values stabilise
E Step (Expectation step)
calculates the expected complete log likelihood with posterior for fixed parameters
That is why Expectation maximization because It is same to maximize expectation
calculates the expected complete-data log-likelihood for fixed parameters A and Σ
각 데이터 포인트가 어떤 분포에서 생성되었는지에 대한 확률을 추정
M Step (Maximization Step)
re-estimates next step’s fixed parameters to maximizing the expected complete-data log-likelihood (derivative)
확률과 함께 모델 파라미터를 업데이트
ELBO, Jensen’s Inequality

Korean
ML simple works - A Step by Step Introduction to EM Algorithm
머신러닝을 공부하다 보면 한번은 보게되는 알고리즘이 바로 EM 알고리즘이다. 많은 문헌에서 이 알고리즘을 설명할 때 K-평균 군집화로 시작해서 가우시안 혼합으로 끝을 맺는다. 하지만 두 알고리즘에 대해서 설명하는 것은 EM 알고리즘의 적용 예를 설명하는 것이지 EM 알고리즘을 근본적으로 이해하기 위한 논리를 설명하는 것이 아니어서 해당 내용을 모두 읽어봐도 EM 알고리즘이 도대체 무엇인지 감을 잡기 힘든 경우가 대부분이다.
https://metamath1.github.io/blog/posts/em/em_algorithm.html
training use case
Beyond Human Data: Scaling Self-Training for Problem-Solving with...
Fine-tuning language models~(LMs) on human-generated data remains a prevalent practice. However, the performance of such models is often limited by the quantity and diversity of high-quality human...
https://arxiv.org/abs/2312.06585


Seonglae Cho