Broccoli's House
※ 이 글의 내용은 O'REILLY의 책을 기반으로 한다. 퍼셉트론 알고리즘 퍼셉트론 - 퍼셉트론(Perceptron) : 신경망(딥러닝)의 기원이 되는 알고리즘이다. 다수의 신호를 입력으로 받아 각 노드의 가중치(w)와 입력 값을 곱한 것을 모두 더한 값이 활성 함수에 의해 판단된다. 그 값이 임계치보다 크면 1이 출력되고 작으면 0이 출력된다. - 퍼셉트론은 복수의 입력 신호 각각에 고유한 가중치를 부여한다. 가중치는 각 신호가 결과에 주는 영향력을 조절하는 요소로 작용한다. 그러므로, 가중치가 크다면 해당 신호가 그만큼 더 중요하다는 것을 뜻한다. 가중치와 편향 도입 - 임계치(θ)를 0으로 두기 위하여 편향(bias, b)을 도입한다. 즉, 퍼셉트론은 입력 신호에 가중치를 곱한 값과 편향을 합하여..
※ 이 글의 내용은 O'REILLY의 책을 기반으로 한다. 지도 학습 알고리즘 : 나이브 베이즈 나이브 베이즈 분류기 - 나이브 베이즈(Naive Bayes) 분류기 : 데이터의 각 특성을 개별로 취급하여 매개변수를 학습하고, 각 특성에서 클래스 별로 통계를 단순하게 취합한다. 선형 모델과 매우 유사하나 로지스틱 회귀(Logistic Regression)나 선형 SVC보다 훈련 속도가 빠르고, 일반화 성능은 조금 뒤쳐진다. 데이터의 특성들이 각각 독립적이고 동등하게 중요하다는 'Naive(순진한)' 가정이 들어간다. 그러나 실제 문제에서 모든 특성이 동등하게 중요하지 않는 경우가 많다. - Ex) 어떠한 병에 걸릴 확률이 1%, 걸리지 않을 확률이 99%, 그 병에 대한 검사를 할 확률이 20%, 검사하..
※ 이 글의 내용은 O'REILLY의 책을 기반으로 한다. 지도 학습 알고리즘 : 선형 모델 선형 모델 - 선형 모델은 입력 특성에 대한 선형 함수를 만들어 출력을 예측한다. 회귀의 선형 모델- 일반화된 예측 함수 : y = wx+b (w : 가중치, b : 편향)- 회귀를 위한 선형 모델은 특성이 하나일 때는 직선, 두 개일 때는 평면이 된다. - 예측 값 y가 각 특성들의 선형 조합이라는 것은 비현실적인 가정일 수 있다. 그러나 이것은 1차원 데이터에서 생각할 수 있는 편견이다. 특성이 많은 데이터 세트, 특히나 훈련 데이터보다 특성이 더 많은 경우에는 어떤 예측 값 y도 완벽하게 선형 함수로 모델링할 수 있다. - 회귀를 위한 선형 모델은 다양하다. 각 모델들은 훈련 데이터로부터 매개 변수 w와 b..