손실함수(Loss function)
[손실함수 (Loss function)] 출력값과 정답의 오차를 정의하는 함수.딥러닝에서 아래 두가지 손실함수가 많이 쓰임. 1. 오차제곱합 (Sum of Squares for Error, SSE) 출력층의 모든 뉴런에서 출력값과 정담의 차이를 제곱하고 이 값들을 모두 합함. E : 오차제곱의 합yk : 출력층의 각 출력값,tk : 정답 1/2 은 미분을 쉽게하기 위해 존재. 신경망의 출력값이 정답과 어느정도 일치하는지 정량화 가능.출력값과 정답이 연속적인 수치인 경우에 잘 맞기 때문에 회귀에서 자주 사용됨. [코드]1234import numpy as np def square_sum(y, t): return 1.0 / 2.0 * np.sum(np.square(y-t))cs 2. 교차 엔프로피 오차 (Cr..