- Keras 소개
- [시작하기] Sequential 모델 가이드
- [시작하기] 함수형 API 가이드
- [시작하기] FAQ
- [모델] Keras의 모델
- [모델] 함수형 API
- [모델] Sequential
- [계층] Keras의 계층
- [계층] Core 계층
- [계층] 합성곱 계층
- [계층] 풀링 계층
- [계층] 부분적으로 연결된 계층
- [계층] 재발 계층
- [계층] 임베딩 계층
- [계층] Merge 계층
- [계층] 고급 활성화 계층
- [계층] 표준화 계층
- [계층] 노이즈 계층
- [계층] 계층 Wrappers
- [계층] 자신만의 Keras 계층 만들기
- [전처리] 시퀀스 전처리
- [전처리] 텍스트 전처리
- [전처리] 이미지 전처리
- Metrics
- 손실
- 최적화기
- 활성화
- Callbacks
- 데이터셋
- 애플리케이션
- 백엔드 1
- 백엔드 2
- 백엔드 3
- 백엔드 4
- 백엔드 5
- 초기화기
- 정규화기
- 제한
- 시각화
- Scikit-Learn API
- 유용한 도구
BatchNormalization [source]
keras.layers.normalization.BatchNormalization(axis=-1, momentum=0.99, epsilon=0.001, center=True, scale=True, beta_initializer='zeros', gamma_initializer='ones', moving_mean_initializer='zeros', moving_variance_initializer='ones', beta_regularizer=None, gamma_regularizer=None, beta_constraint=None, gamma_constraint=None)
Batch 표준화 계층입니다. Ioffe and Szegedy, 2014 논문을 참조하세요.
각 batch마다 이전 계층의 활성화를 표준화합니다. 즉, 평균 활성화를 0에 가깝게 유지하고 활성화 표준편차를 1에 가깝게 유지하는 변환을 적용합니다.
인수
- axis: 정수이며 표준화될 축입니다(보통 features 축). 예를 들어,
data_format="channels_first"
인 Conv2D
계층 뒤에는 BatchNormalization
에 axis=1
와 같이 설정하세요.
- momentum: 이동 평균에 대한 모멘텀입니다.
- epsilon: 작은 실수이며 0으로 나뉘는 것을 방지하기 위해 분산에 더해지는 값입니다.
- center: True인 경우, 표준화된 텐서에
beta
의 offset을 더합니다. False인 경우, beta
는 무시됩니다.
- scale: True인 경우,
gamma
를 곱합니다. False인 경우, gamma
는 사용되지 않습니다. 다음 계층이 선형인 경우(예를 들어 nn.relu
인 경우 역시), 다음 계층에 의해 스케일링 되므로 적용이 불가능할 수 있습니다.
- beta_initializer: 베타 가중치에 대한 초기화기 입니다.
- gamma_initializer: 감마 가중치에 대한 초기화기 입니다.
- moving_mean_initializer: 이동 평균에 대한 초기화기 입니다.
- moving_variance_initializer: 이동 분산에 대한 초기화기 입니다.
- beta_regularizer: 베타 가중치에 대한 선택적 정규화기 입니다.
- gamma_regularizer: 감마 가중치에 대한 선택적 정규화기 입니다.
- beta_constraint: 베타 가중치에 대한 선택적 제한 함수입니다.
- gamma_constraint: 감마 가중치에 대한 선택적 제한 함수입니다.
입력 형태
임의입니다. 이 계층을 모델의 첫번째 계층으로 쓰고자 할 때에는 키워드 인수 input_shape
(샘플 축을 포함하지 않는 정수 튜플)을 사용하세요.
출력 형태
입력과 같은 형태입니다.
참고
이 문서는 Keras의 Normalization Layers을 번역한 것입니다.