deeplearning
-
BatchNormalization layerDeepLearning 2023. 5. 4. 19:33
Layer that normalizes its inputs. 입력을 정규화하는 계층입니다. Batch normalization applies a transformation that maintains the mean output close to 0 and the output standard deviation close to 1. 평균 출력을 0에 가깝게, 출력 표준 편차를 1에 가깝게 유지하는 변환을 적용합니다. Importantly, batch normalization works differently during training and during inference. 중요한 점은 배치 정규화가 학습 시(model.fit())와 추론(model.predict()) 시 다르게 작동한다는 점입니다. Durin..