1. Keras 소개
    1. [시작하기] Sequential 모델 가이드
    2. [시작하기] 함수형 API 가이드
    3. [시작하기] FAQ
    4. [모델] Keras의 모델
    5. [모델] 함수형 API
    6. [모델] Sequential
    7. [계층] Keras의 계층
    8. [계층] Core 계층
    9. [계층] 합성곱 계층
    10. [계층] 풀링 계층
    11. [계층] 부분적으로 연결된 계층
    12. [계층] 재발 계층
    13. [계층] 임베딩 계층
    14. [계층] Merge 계층
    15. [계층] 고급 활성화 계층
    16. [계층] 표준화 계층
    17. [계층] 노이즈 계층
    18. [계층] 계층 Wrappers
    19. [계층] 자신만의 Keras 계층 만들기
    20. [전처리] 시퀀스 전처리
    21. [전처리] 텍스트 전처리
    22. [전처리] 이미지 전처리
  2. Metrics
  3. 손실
  4. 최적화기
  5. 활성화
  6. Callbacks
  7. 데이터셋
  8. 애플리케이션
  9. 백엔드 1
  10. 백엔드 2
  11. 백엔드 3
  12. 백엔드 4
  13. 백엔드 5
  14. 초기화기
  15. 정규화기
  16. 제한
  17. 시각화
  18. Scikit-Learn API
  19. 유용한 도구

정규화기의 사용법

정규화기는 최적화 중에 계층 파라미터나 계층 활성화에 벌점을 적용하도록 합니다. 이러한 벌점은 네트워크를 최적화하는 손실 함수에 포함됩니다.

벌점은 각 계층별로 적용됩니다. 정확한 API는 계층에 의존하지만 Dense, Conv1D, Conv2D, Conv3D 계층은 동일한 API를 가집니다.

이 계층은 다음과 같은 3개의 키워드 인수를 노출합니다:

예제

from keras import regularizers
model.add(Dense(64, input_dim=64,
                kernel_regularizer=regularizers.l2(0.01),
                activity_regularizer=regularizers.l1(0.01)))

사용가능한 벌점

keras.regularizers.l1(0.)
keras.regularizers.l2(0.)
keras.regularizers.l1_l2(0.)

새로운 정규화기 개발하기

가중치 행렬을 받아들여서 손실 분포 텐서를 반환하는 함수는 정규화기로 사용할 수 있습니다. 예를 들어 다음과 같습니다:

from keras import backend as K

def l1_reg(weight_matrix):
    return 0.01 * K.sum(K.abs(weight_matrix))

model.add(Dense(64, input_dim=64,
                kernel_regularizer=l1_reg)

대신에, 객체지향(object-oriented) 방식으로 직접 정규화기를 만들 수도 있습니다; 예제로 keras/regularizers.py 모듈을 참조하세요.


이 문서는 Keras의 Regularizers을 번역한 것입니다.