1. Keras 소개
    1. [시작하기] Sequential 모델 가이드
    2. [시작하기] 함수형 API 가이드
    3. [시작하기] FAQ
    4. [모델] Keras의 모델
    5. [모델] 함수형 API
    6. [모델] Sequential
    7. [계층] Keras의 계층
    8. [계층] Core 계층
    9. [계층] 합성곱 계층
    10. [계층] 풀링 계층
    11. [계층] 부분적으로 연결된 계층
    12. [계층] 재발 계층
    13. [계층] 임베딩 계층
    14. [계층] Merge 계층
    15. [계층] 고급 활성화 계층
    16. [계층] 표준화 계층
    17. [계층] 노이즈 계층
    18. [계층] 계층 Wrappers
    19. [계층] 자신만의 Keras 계층 만들기
    20. [전처리] 시퀀스 전처리
    21. [전처리] 텍스트 전처리
    22. [전처리] 이미지 전처리
  2. Metrics
  3. 손실
  4. 최적화기
  5. 활성화
  6. Callbacks
  7. 데이터셋
  8. 애플리케이션
  9. 백엔드 1
  10. 백엔드 2
  11. 백엔드 3
  12. 백엔드 4
  13. 백엔드 5
  14. 초기화기
  15. 정규화기
  16. 제한
  17. 시각화
  18. Scikit-Learn API
  19. 유용한 도구

활성화의 사용법

활성화는 Activation 계층을 통해서나 모든 앞 계층의 지원을 받는 activation 인수를 통해서나 사용될 수 있습니다:

from keras.layers import Activation, Dense

model.add(Dense(64))
model.add(Activation('tanh'))

이 것은 다음과 완전히 같습니다:

model.add(Dense(64, activation='tanh'))

또한 요소 단위의 TensorFlow/Theano/CNTK 함수를 활성화로써 넘길 수 있습니다:

from keras import backend as K

model.add(Dense(64, activation=K.tanh))
model.add(Activation(K.tanh))

사용 가능한 activations

softmax

softmax(x, axis=-1)

Softmax 활성화 함수입니다.

인수

반환값

텐서이며 softmax 변환의 출력을 반환합니다.

예외 발생


elu

elu(x, alpha=1.0)

selu

selu(x)

Scaled Exponential Linear Unit의 약자입니다. Klambauer et al., 2017 논문을 참고하세요.

인수

참고


softplus

softplus(x)

softsign

softsign(x)

relu

relu(x, alpha=0.0, max_value=None)

tanh

tanh(x)

sigmoid

sigmoid(x)

hard_sigmoid

hard_sigmoid(x)

linear

linear(x)

"고급 활성화"

단순한 TensorFlow/Theano/CNTK 함수보다 좀 더 복잡한 활성화(예를 들어 학습가능한 상태유지형 활성화)를 고급 활성화 계층과 같이 사용가능하며 keras.layers.advanced_activations 모듈에서 찾을 수 있습니다. PReLULeakyReLU도 포함되어 있습니다.


이 문서는 Keras의 Activations을 번역한 것입니다.