-
[딥러닝]1강. 딥러닝이란 무엇인가 ?IT&컴퓨터공학/딥러닝 2021. 2. 9. 21:59
딥러닝 전반에 대한 복습 차 Andrew Ng 의 딥러닝 강의를 들으며 정리해보려고 한다 !
총 140강으로 약 2~3 주에 걸쳐 들을 예청이며 에드위드(edwith)에서 한글 자막을 달아주었으니 참고하면 좋을것같다 !
딥러닝
신경망을 학습시키는것
선형회귀에 대해 알고있다면,
주택 사이즈에 따른 주택가격 예측 함수를 이렇게 그려볼 수 있다.
이 함수를 간단한 신경망으로 볼 수 있는데,
이렇게 하나의 '뉴런' 으로 표현할 수있으며, 이 뉴런에는 위에서 본 예측 함수가 들어간다.
이때 이렇게 계속 0을 유지하다가 올라가는 함수를 'ReLu' 함수라고 한다. ( 음수는 없음 ! )
이런 뉴런이 여러개가 모여 큰 신경망을 이룬다.
예를들자면
- 방의 사이즈와 갯수는 가족이 몇명인지 나타낼 수 있으며
- zip code ( 우편번호 ) 는 집에 걷기좋은 동네에 위치하는지 나타낼 수 있으며
- zip code 와 wealth 는 주변에 명문학교가 위치하는지를 나타낼 수 있다
그리고 위에있는 원 , 바로 뉴런들은 위에서 본 함수처럼 'ReLu' 함수일 수도 혹은 다른 비선형 함수일 수 있다.
앞에서 살펴본 가족 구성원 수 , 걷기좋은 동네에 위치하는가 , 명문학교가 위치하는가 등은
결론적으로는 집의 가격을 예측하는데 도움을 준다.
그래서 이 예제를 살펴보면 맨 앞의 size , bedrooms ,zip code 와 같은 변수들은 X(입력) , 집의 가격은 Y(예측하고자 하는 값)로 나타낼 수있다.
이렇게 뉴런을 쌓아올림으로써 이전보다 더 큰 신경망을 가질 수 있다.
정리하자면 이런 신경망이며 앞과 다른점은 각각의 뉴런은 모든 X값과 연결되어있다는 점이다.
가령 가족 구성원수는 size와 #bedrooms 만으로 결정되지만 어쨋든 입력은 4개의 입력을 항상 받아오므로 zip code와 wealth 와도 연결되어있다.
때문에 입력층과 뉴런들이 위치한 은닉층은 서로 간 조밀하게 연결되어있다 말할 수있다.
'IT&컴퓨터공학 > 딥러닝' 카테고리의 다른 글
[딥러닝]3강. 이진분류 (0) 2021.02.09 [딥러닝] 2강. 지도학습의 데이터종류 , 왜 딥러닝이 발전할 수 있었는가? (0) 2021.02.09 수식 (0) 2020.12.07 DQN 코드- cartpole (0) 2020.12.07 폴리시 그레이디언트 (0) 2020.12.07 댓글