활성화는 Activation
계층을 통해서나 모든 앞 계층의 지원을 받는 activation
인수를 통해서나 사용될 수 있습니다:
from keras.layers import Activation, Dense
model.add(Dense(64))
model.add(Activation('tanh'))
이 것은 다음과 완전히 같습니다:
model.add(Dense(64, activation='tanh'))
또한 요소 단위의 TensorFlow/Theano/CNTK 함수를 활성화로써 넘길 수 있습니다:
from keras import backend as K
model.add(Dense(64, activation=K.tanh))
model.add(Activation(K.tanh))
softmax(x, axis=-1)
Softmax 활성화 함수입니다.
인수
반환값
텐서이며 softmax 변환의 출력을 반환합니다.
예외 발생
dim(x) == 1
인 경우입니다.elu(x, alpha=1.0)
selu(x)
Scaled Exponential Linear Unit의 약자입니다. Klambauer et al., 2017 논문을 참고하세요.
인수
참고
softplus(x)
softsign(x)
relu(x, alpha=0.0, max_value=None)
tanh(x)
sigmoid(x)
hard_sigmoid(x)