keras.layers.advanced_activations.LeakyReLU(alpha=0.3)
구멍으로 새는 ReLU(Leaky version of a Rectified Linear Unit) 활성화 함수입니다.
단위가 활성화되지 않았을 때 다음과 같이 작은 기울기만 허락합니다: f(x) = alpha * x for x < 0
, f(x) = x for x >= 0
.
입력 형태
임의입니다. 이 계층을 모델의 첫번째 계층으로 쓰고자 할 때에는 키워드 인수 input_shape
(샘플 축을 포함하지 않는 정수 튜플)을 사용하세요.
출력 형태
입력과 같은 형태입니다.
인수
참고
keras.layers.advanced_activations.PReLU(alpha_initializer='zeros', alpha_regularizer=None, alpha_constraint=None, shared_axes=None)
파라미터 ReLU(Parametric Rectified Linear Unit) 활성화 함수입니다.
alpha
가 x와 같은 형태의 학습된 배열일 때 다음을 따릅니다: f(x) = alpha * x for x < 0
, f(x) = x for x >= 0
.
입력 형태
임의입니다. 이 계층을 모델의 첫번째 계층으로 쓰고자 할 때에는 키워드 인수 input_shape
(샘플 축을 포함하지 않는 정수 튜플)을 사용하세요.
출력 형태
입력과 같은 형태입니다.
인수
(batch, height, width, channels)
과 같은 출력 형태의 2차원 합성곱으로부터 들어오는 feature map이 있고 각 필터가 한 세트의 파라미터만을 가지도록 공간을 가로질러 파리미터를 공유하고자 한다면 shared_axes=[1, 2]
과 같이 설정하세요.참고
keras.layers.advanced_activations.ELU(alpha=1.0)
지수 선형 단위(Exponential Linear Unit) 활성화 함수입니다.
다음을 따릅니다: f(x) = alpha * (exp(x) - 1.) for x < 0
, f(x) = x for x >= 0
.
입력 형태
임의입니다. 이 계층을 모델의 첫번째 계층으로 쓰고자 할 때에는 키워드 인수 input_shape
(샘플 축을 포함하지 않는 정수 튜플)을 사용하세요.
출력 형태
입력과 같은 형태입니다.
인수
참고
keras.layers.advanced_activations.ThresholdedReLU(theta=1.0)
역치 ReLU(Thresholded Rectified Linear Unit) 활성화 함수입니다.
다음을 따릅니다: f(x) = x for x > theta
, f(x) = 0 otherwise
.
입력 형태
임의입니다. 이 계층을 모델의 첫번째 계층으로 쓰고자 할 때에는 키워드 인수 input_shape
(샘플 축을 포함하지 않는 정수 튜플)을 사용하세요.
출력 형태
입력과 같은 형태입니다.
인수
참고
이 문서는 Keras의 Advanced Activations Layers을 번역한 것입니다.