1. Keras 소개
    1. [시작하기] Sequential 모델 가이드
    2. [시작하기] 함수형 API 가이드
    3. [시작하기] FAQ
    4. [모델] Keras의 모델
    5. [모델] 함수형 API
    6. [모델] Sequential
    7. [계층] Keras의 계층
    8. [계층] Core 계층
    9. [계층] 합성곱 계층
    10. [계층] 풀링 계층
    11. [계층] 부분적으로 연결된 계층
    12. [계층] 재발 계층
    13. [계층] 임베딩 계층
    14. [계층] Merge 계층
    15. [계층] 고급 활성화 계층
    16. [계층] 표준화 계층
    17. [계층] 노이즈 계층
    18. [계층] 계층 Wrappers
    19. [계층] 자신만의 Keras 계층 만들기
    20. [전처리] 시퀀스 전처리
    21. [전처리] 텍스트 전처리
    22. [전처리] 이미지 전처리
  2. Metrics
  3. 손실
  4. 최적화기
  5. 활성화
  6. Callbacks
  7. 데이터셋
  8. 애플리케이션
  9. 백엔드 1
  10. 백엔드 2
  11. 백엔드 3
  12. 백엔드 4
  13. 백엔드 5
  14. 초기화기
  15. 정규화기
  16. 제한
  17. 시각화
  18. Scikit-Learn API
  19. 유용한 도구

TimeDistributed [source]

keras.layers.wrappers.TimeDistributed(layer)

입력의 매 시간 조각에 계층을 적용시키는 wrapper 입니다.

입력은 최소한 3차원이어야 하며 인덱스 차원은 시간 차원으로 간주됩니다.

각각이 16차원의 10개 벡터로 된 시퀀스인 샘플 32개로 이루어진 batch의 경우라면 계층에 대한 batch의 입력 형태는 (32, 10, 16)이 되며 샘플 차원을 포함하지 않는 input_shape(10, 16)이 됩니다.

매 10 시간 단계마다 Dense 계층을 독립적으로 적용하기 위해 TimeDistributed를 사용해 보자면:

# as the first layer in a model
model = Sequential()
model.add(TimeDistributed(Dense(8), input_shape=(10, 16)))
# now model.output_shape == (None, 10, 8)

그러면 출력은 다음 형태를 띄게 됩니다: (32, 10, 8).

다음 계층에서 input_shape은 필요가 없어집니다:

model.add(TimeDistributed(Dense(32)))
# now model.output_shape == (None, 10, 32)

그러면 출력은 다음 형태를 띄게 됩니다: (32, 10, 32).

TimeDistributed은 임의의 계층과 사용될 수 있으나 Dense 계층과는 안 되며, Conv2D 계층의 인스턴스와는 다음과 같이 쓸 수 있습니다:

model = Sequential()
model.add(TimeDistributed(Conv2D(64, (3, 3)),
              input_shape=(10, 299, 299, 3)))

인수


Bidirectional [source]

keras.layers.wrappers.Bidirectional(layer, merge_mode='concat', weights=None)

RNNs에 대한 양방향 wrapper 입니다.

인수

예외 발생

예제

model = Sequential()
model.add(Bidirectional(LSTM(10, return_sequences=True),
            input_shape=(5, 10)))
model.add(Bidirectional(LSTM(10)))
model.add(Dense(5))
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy', optimizer='rmsprop')

이 문서는 Keras의 Layers Wrappers을 번역한 것입니다.