활성화는 Activation
계층을 통해서나 모든 앞 계층의 지원을 받는 activation
인수를 통해서나 사용될 수 있습니다:
from keras.layers import Activation, Dense
model.add(Dense(64))
model.add(Activation('tanh'))
이 것은 다음과 완전히 같습니다:
model.add(Dense(64, activation='tanh'))
또한 요소 단위의 TensorFlow/Theano/CNTK 함수를 활성화로써 넘길 수 있습니다:
from keras import backend as K
model.add(Dense(64, activation=K.tanh))
model.add(Activation(K.tanh))
softmax(x, axis=-1)
Softmax 활성화 함수입니다.
인수
반환값
텐서이며 softmax 변환의 출력을 반환합니다.
예외 발생
dim(x) == 1
인 경우입니다.elu(x, alpha=1.0)
selu(x)
Scaled Exponential Linear Unit의 약자입니다. Klambauer et al., 2017 논문을 참고하세요.
인수
참고
softplus(x)
softsign(x)
relu(x, alpha=0.0, max_value=None)
tanh(x)
sigmoid(x)
hard_sigmoid(x)
linear(x)
단순한 TensorFlow/Theano/CNTK 함수보다 좀 더 복잡한 활성화(예를 들어 학습가능한 상태유지형 활성화)를 고급 활성화 계층과 같이 사용가능하며 keras.layers.advanced_activations
모듈에서 찾을 수 있습니다. PReLU
나 LeakyReLU
도 포함되어 있습니다.
이 문서는 Keras의 Activations을 번역한 것입니다.