모델을 학습하기전 컴파일 할때 옵티마이저와 로스를 설정하게되는데
이때 하강할때 내려가는 보폭인 learning rate를 설정해줄수있다.

옵티마이저의 파라미터인 learning_rate를 설정해보자.
model.compile(tf.keras.optimizers.RMSprop(learning_rate=0.001), loss= 'mse',metrics= ['mse','mae'])
# 컴파일 파라미터로 optimizer 대신 tf.keras.optimizers로 RMSprop를 호출하고 파라미터인 learning_rate를 설정했다.
'딥러닝' 카테고리의 다른 글
| [딥러닝] Overfitting: EarlyStopping, Dropout 설정 (0) | 2022.06.13 |
|---|---|
| [딥러닝] Validation 설정: validation_split, validation_data (0) | 2022.06.13 |
| [딥러닝] GridSearch, 최적의 하이퍼 파라미터 찾기 (0) | 2022.06.10 |
| [딥러닝] 텐서플로우 예측 ANN: loss= 'mse', activation= 'linear' (0) | 2022.06.10 |
| [딥러닝] 텐서플로우 분류 ANN: loss= 'binary_crossentropy', activation= 'sigmoid', epoch, batch_size (0) | 2022.06.10 |
댓글