일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 스프링 프레임워크
- binary search
- STL
- 백준
- 백트래킹
- 프로그래밍언어론
- 머신러닝
- 릿코드
- C/C++
- spring
- 라인플러스
- 라인
- jvm
- 모두를 위한 딥러닝
- dfs
- C++
- Python
- 알고리즘
- 스타벅스
- 프로그래머스
- BFS
- 다이나믹프로그래밍
- 시애틀
- Java
- 파이썬
- 벤쿠버
- leetcode
- Spring Framework
- 딥러닝
- DP
Archives
- Today
- Total
목록Gradient descent algorithm (1)
케이스윔의 개발 블로그
[Lec03] Linear Regression의 cost 최소화 알고리즘의 원리 설명
오늘은 'cost function을 어떻게 최소화해서 학습을 시킬 것인가'를 알아보도록 하겠다. 우리가 학습시키는 Hypothesis는 H(x) = Wx+b로 주어진다. 이걸 통해서 만들어 낼 수 있는 식 cost(W,b)는 예측값과 실제값 차이의 평균이다. 간략하게 만든 Simplified hypothesis를 통해서 계산을 해보자! H(x)=Wxcost(W) = 1/m((Wx[i]-y[i])제곱의 합) training data xy 11 2 2 33 위의 학습데이터를 통해서 cost(W)를 계산해보도록 하겠다.W=1일때 cost(W)는 무엇인가?-> 1/3((1*1-1)제곱+(1*2-2)제곱+(1*3-3)제곱) = 0W=0일 때 cost(W)는 무엇인가?-> 1/3((0*1-1)제곱+(0*2-2)제곱..
모두를 위한 딥러닝
2018. 4. 29. 15:29