Broccoli's House
#2-(3) 신경망 : 3층 신경망 구현 본문
※ 이 글의 내용은 O'REILLY의 <밑바닥부터 시작하는 딥러닝> 책을 기반으로 한다.
3층 신경망 구현
- 신호 전달 구현
<3층 신경망>
- 입력층(Input Layer, 0층)은 2개, 첫 번째 은닉층(First Hidden Layer, 1층)은 3개, 두 번째 은닉층(Second Hidden Layer, 2층)은 2개, 출력층(Output Layer, 3층)은 2개의 노드로 구성된 3층 신경망이다.
(1) 입력층에서 1층으로의 신호 전달
<입력층에서 1층으로의 신호 전달>
- 가중치 계산
|
- 활성화 함수
|
>> [ 0.574 0.668 0.75 ]
(2) 1층에서 2층으로의 신호 전달
<1층에서 2층으로의 신호 전달>
|
>> [ 0.516 1.214]
>> [ 0.626 0.771]
(3) 2층에서 출력층으로의 신호 전달
<2층에서 출력층으로의 신호 전달>
def identity_function(x): |
>> [ 0.317 0.696]
- 함수 identity_function()는 항등 함수를 정의한 것이다. 출력층의 활성화 함수는 보통 풀고자하는 문제의 성질에 맞게 정한다. 회귀 문제에서는 항등 함수를 이용하며, 이진 분류에서는 시그모이드(Sigmoid) 함수, 다중 분류에서는 소프트맥스(Softmax) 함수를 사용하는 것이 일반적이다.
구현 정리
|
>> [ 0.317 0.696]
'공부 > 딥러닝' 카테고리의 다른 글
#2-(5) 신경망 : MNIST 손글씨 숫자 인식 (1) | 2018.01.30 |
---|---|
#2-(4) 신경망 : 출력층 설계 (0) | 2018.01.26 |
#2-(2) 신경망 : 활성화 함수 (0) | 2018.01.24 |
#2-(1) 신경망 : 소개 (0) | 2018.01.24 |
#1-(3) 퍼셉트론 : XOR 게이트 (1) | 2018.01.23 |