batch_size(배치사이즈) : Gradient Descent 를 한번 계산하기 위한 학습 데이터의 개수
#datch_size() n개의 행렬을 넣어서 계산 (속도를 더 빨리 할 수 있다.)
사람이 정해주는 파라미터 => 하이퍼 파라미터
epochs(에포크) =전체 학습 데이터를 몇번 반복 할것지의 대한 수
#A라는 학습 데이터를 몇번 반복시켜 학습 시킬것인지 대한 갯수
아래 사진과 같이 학습시킬때 값을 대입한다.
'인공지능 > 딥러닝' 카테고리의 다른 글
딥러닝 : 이미지 피쳐 스케일링 하기 (0) | 2021.12.01 |
---|---|
딥러닝 : loss function / compile() 리그레션 문제에서 컴파일 함수의 파라미터 사용법 (0) | 2021.11.30 |
딥러닝: Dummy varialbe trap 더미 베리어블 (간단하게) (0) | 2021.11.30 |
딥러닝 옵티마이저(Optimizer) 종류 (0) | 2021.11.30 |
딥러닝 : Gradient Descent (0) | 2021.11.30 |