- Keras 소개
- [시작하기] Sequential 모델 가이드
- [시작하기] 함수형 API 가이드
- [시작하기] FAQ
- [모델] Keras의 모델
- [모델] 함수형 API
- [모델] Sequential
- [계층] Keras의 계층
- [계층] Core 계층
- [계층] 합성곱 계층
- [계층] 풀링 계층
- [계층] 부분적으로 연결된 계층
- [계층] 재발 계층
- [계층] 임베딩 계층
- [계층] Merge 계층
- [계층] 고급 활성화 계층
- [계층] 표준화 계층
- [계층] 노이즈 계층
- [계층] 계층 Wrappers
- [계층] 자신만의 Keras 계층 만들기
- [전처리] 시퀀스 전처리
- [전처리] 텍스트 전처리
- [전처리] 이미지 전처리
- Metrics
- 손실
- 최적화기
- 활성화
- Callbacks
- 데이터셋
- 애플리케이션
- 백엔드 1
- 백엔드 2
- 백엔드 3
- 백엔드 4
- 백엔드 5
- 초기화기
- 정규화기
- 제한
- 시각화
- Scikit-Learn API
- 유용한 도구
sin
sin(x)
요소 단위로 x의 사인 값을 계산합니다.
인수
반환값
텐서를 반환합니다.
cos
cos(x)
요소 단위로 x의 코사인 값을 계산합니다.
인수
반환값
텐서를 반환합니다.
normalize_batch_in_training
normalize_batch_in_training(x, gamma, beta, reduction_axes, epsilon=0.001)
Batch의 평균과 표준편차를 계산하여 batch 표준화를 적용합니다.
인수
- x: 입력 텐서 혹은 변수입니다.
- gamma: 입력을 스케일링할 때 적용할 텐서입니다.
- beta: 입력의 가운데 값이 될 텐서입니다.
- reduction_axes: 정수의 iterable이며 표준화할 축입니다.
- epsilon: 0으로 숫자가 나뉠 때의 에러를 방지하기 위한 인자의 값입니다.
반환값
다음과 같은 형식의 길이가 3인 튜플을 반환합니다: (normalized_tensor, mean, variance)
.
batch_normalization
batch_normalization(x, mean, var, beta, gamma, epsilon=0.001)
주어진 평균, 분산, 베타, 감마 값을 x에 적용하여 batch 표준화합니다.
즉 다음을 반환합니다:output = (x - mean) / (sqrt(var) + epsilon) * gamma + beta
인수
- x: 입력 텐서 혹은 변수입니다.
- mean: batch의 평균입니다.
- var: batch의 분산입니다.
- beta: 입력의 가운데 값이 될 텐서입니다.
- gamma: 입력을 스케일링할 때 적용할 텐서입니다.
- epsilon: 0으로 숫자가 나뉠 때의 에러를 방지하기 위한 인자의 값입니다.
반환값
텐서를 반환합니다.
concatenate
concatenate(tensors, axis=-1)
지정된 축을 따라 텐서의 리스트를 상호연결합니다.
인수
- tensors: 상호연결할 텐서의 리스트입니다.
- axis: 상호연결할 축입니다.
반환값