목록분류 전체보기 (163)
Bamboo is coming
http://www.kocw.net/home/m/search/kemView.do?kemId=1056974 확률 및 통계확률변수는 예측할 수 없는 물리적 신호를 표현하는 수학적 모델로서, 함수의 변수가 확률적 분포에 의하여 임의로 발생하는 경우에 적용한다. 확률신호는 통신신호, 영상 및 음성신호, 등과 같www.kocw.net한양대 이상화 교수 확통 강의
https://datascienceschool.net/02%20mathematics/06.06%20베이즈%20정리.html6.6 베이즈 정리 — 데이터 사이언스 스쿨.ipynb .pdf to have style consistency -->datascienceschool.net
https://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의hunkim.github.io
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bcykae/btsro7etiwi/0plRb5OMCpGtPqueejgeRk/img.png)
Regularization 정규화 normalization과 regularization는 모두 오버피팅을 방지하는 공통 목표가 있다. 그러나 두 기법의 차이점은 normalization은 입력 데이터의 범위를 일정하게 조정하는 반면, regularization은 모델의 복잡도를 제한하여 학습 과정에서 과적합을 방지하는 방법을 사용한다는 것이다. Normalization: 입력 데이터의 범위가 다를 경우, 이를 일정한 범위로 조정하여 학습을 돕는다. 이로 인해 모델이 학습을 더 쉽게 하고, 빠르게 수렴할 수 있게 된다. Regularization: 모델의 복잡도가 너무 높으면 오버피팅이 발생할 수 있다. 규제화는 모델의 복잡도를 제한하여 이를 방지한다. 가장 흔한 방법은 가중치의 크기를 제한하는 L1 규제..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bBkF0I/btsrsTUZsmM/5gwKKrtZsMrHwKkijAJdAk/img.png)
1. 정의 Bias 모델을 통해 얻은 예측값과 실제 정답과의 차이 평균, 예측값이 실제 정답값과 얼마나 떨어져 있는 지를 나타냄 Variance 다양한 데이터 셋에 대해 예측값이 얼마나 변할 수 있는 지에 대한 Quantity의 개념. 예측값이 퍼져있는 정도 2. bias와 variance의 관계(Bias and Varaince Trade-Off) bias와 variance는 모델의 복잡도와 관련이 있다. bias가 높으면 underfitting이 되고 variance가 높으면 overfitting이 발생하기 때문에 적당한 수준의 bias와 variance를 만들기 위해 적정한 수준에서 모델의 학습을 종료시켜야 한다. 2.1. 예측값 분포 그림에서 볼 수 있듯이 Low Bias & Low Variance..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bjXqTD/btspxbi2f0N/BYHk9TTMHkxRlPghD5oS8K/img.png)
경사하강법(Gradient Descent)이란 인공지능의 지도학습에서 입력 데이터와 정답값을 제공한 후 주어진 입력 데이터의 정답에 근사한 예측값을 만들어 내는 것이 최종 목표이다. 따라서, 정답값에 근사한 예측을 하기 위해 차잇값을 줄여나가야 하는데 예측값과 실제 정답값 사이의 차잇값을 손실 함수(loss function)으로 표현한다. 이 손실함수를 최소화하는 과정을 최적화(optimization)이라고 하고 최적화를 수행하는 알고리즘은 최적화 알고리즘(optimizer)로 불린다. 최적화 알고리즘은 손실함수의 기울기를 이용하여 손실함수 값이 최저가 되는 방향으로, 자세히는 기울기가 가르키는 반대 방향 즉, 하강하는 방향으로 학습률(learning rate)만큼 가중치를 업데이트하는 알고리즘이다. 이..
번역 http://aikorea.org/cs231n/CS231n Convolutional Neural Networks for Visual Recognition신경망 파트 3: 학습 및 평가 그라디언트 체크, 버그 점검, 학습 과정 모니터링, momentum (+nesterov), 2차(2nd-order) 방법, Adagrad/RMSprop, hyperparameter 최적화, 모델 ensembleaikorea.org 원문 http://cs231n.stanford.edu Stanford University CS231n: Deep Learning for Computer VisionCourse Description Computer Vision has become ubiquitous in our society,..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/ckesSk/btsrDDxfFYs/5OnnWAQMhUR9g5lUegEEc0/img.jpg)
오차 역전파 예측값과 정답 사이의 오차를 입력계층으로 역전파하여 신경망의 출력 오차를 최소화하는 방향으로 가중치를 조정하는 과정이다. 역방향 패스 1. 순방향에서 얻은 예측(출력)값과 실제 정답 사이의 오차를 계산한다. 2. 출력 계층에서 gradient 계산: 오차를 사용하여 출력 계층의 가중치에 대한 gradient 계산 3. 은닉 계층에서 gradient 계산: 출력 계층에서부터 입력 계층까지 역방향으로 진행하면서 각 계층의 가중치에 대한 그라이언트를 계산 4. 가중치 업데이트: 계산된 그래디언트는 손실 함수의 편미분값으로 각 가중치가 손실에 얼마나 영향을 미치는지 나타낸다. 즉, 가중치를 얼마나 변경해야 손실을 줄일 수 있는지에 대한 방향과 크기를 제공한다. 이 그라디언트를 이용해 그래디언트의 반..
https://datalabbit.tistory.com/40 [기초통계학] 확률밀도함수와 확률분포함수Review 참고 포스팅 : 2020/05/18 - [Statistics/Basic Statistics] - [기초통계학] 확률변수와 기댓값, 분산 [기초통계학] 확률변수와 기댓값, 분산 Review 참고 포스팅 : 2020/05/15 - [Statistics/Basic Statistics] - [기초통datalabbit.tistory.com