1. Batch Normalization (BN)

$$ \hat{x} = \frac{x - \mu_{\text{batch}}}{\sqrt{\sigma_{\text{batch}}^2 + \epsilon}} $$

여기서 μ_batch와 σ_batch는 배치 내의 평균과 분산을 의미합니다.

2. Layer Normalization (LN)

여기서 μ_layer와 σ_layer는 레이어 단위의 평균과 분산을 의미합니다.

요약

image.png

Ref