경사 하강법(Gradient Descent)은 머신러닝 및 딥러닝 알고리즘을 학습시킬때 사용하는 방법 중 하나이며 1차 근삿값 발견용 최적화 알고리즘이다. 기본 개념은 함수의 기울기(경사)를 구하여 기울기가 낮은 쪽으로 계속 이동시켜 극값(최적값)에 이를 때까지 반복하는 것이다.
Gradient Descent 는 Gradient(경사),Descent(내려감)이라는 뜻으로
# 옵티마이저, 그레디언트 알고리즘을 개선한 것들 중에서 선택하면 된다.
#그래디언트 디센트는, 오차가 최소가 될때의 W 값을 찾는 알고리즘이다.
#lose 는 , 오차함수를 말한다
# 분류의 문제는 2가지로 나뉜다.
# 1. 2개로 분류하는 문제 :binary_crossentropy
# 2. 3개 이상으로 분류하는 문제 : catergorical_ crossentropy
# 위에 2개 중에 하나를 설정해 준다,
# metrics (평가,검증) 분류의 문제는 보통 정확도를 측정한다.
# 따라서 accuracy(분류의 문제는 정확도) 를 설정해준다.
위에 보이는 데이터 프레임을 이용하여 딥러닝을 사용하는 것인데
아래 그림에서 열- 아래로 이어지는 한줄을 레이어 라고 한다.
노란색원의 레이어는 input 레이어로 데이터 프레임의 컬럼 개수와 같기때문에
input_dim= 컬럼의 갯수 를 적어주면 된다.
ex) model.complie (optimizer='adam' , lose='binary_crossentropy',metrics['accuracy'])
back propagation 역순으로 가면서 W 값을 찾아내는것
W 의 오차값을 적게내려고
W= 초기값
W 값은 계속 내려가면서 이동하며 W값을 찾아내는것\
W값을 미분했을때 더이상 움직이지않고 0인 상태가 되면 그 값을 W값으로 설정한다.
'인공지능 > 딥러닝' 카테고리의 다른 글
딥러닝 : loss function / compile() 리그레션 문제에서 컴파일 함수의 파라미터 사용법 (0) | 2021.11.30 |
---|---|
딥러닝 : fit 함수에서 배치 사이즈 (batch_size= )와 에포크(epochs=) (0) | 2021.11.30 |
딥러닝: Dummy varialbe trap 더미 베리어블 (간단하게) (0) | 2021.11.30 |
딥러닝 옵티마이저(Optimizer) 종류 (0) | 2021.11.30 |
딥러닝 : 뉴런의 정의 (0) | 2021.11.30 |