IT&컴퓨터공학
-
[CSS]div 와 span , class 와 id 차이점이 무엇인가?IT&컴퓨터공학/HTML&CSS 2021. 1. 3. 19:54
div 와 span ( non-semantic 태그 ) ※ 시멘틱 태그 와 논시멘틱 태그의 차이점을 알고싶다면 ↓↓↓ 2021/01/03 - [IT&컴퓨터공학/HTML&CSS] - [html5] 시멘틱 태그란? [html5] 시멘틱 태그란? 시멘틱 태그는 html5 부터 문서의 구조와 의미를 표현하기 위해서 도입되었다. 이런 시멘틱 태그를 이용하여 웹문서를 만들면 1. 문서를 이해하기 쉬움 2. 유지보수하기 용이함 3. 문서의 구조와 doing-nothing.tistory.com div : 줄바꿈이 자동으로 된다. span : 줄바꿈이 자동으로 되지 않는다. 왜 이러는 걸까 ? div : block 요소 -> inline 요소와 텍스트를 모두 포함 , 안에 block 요소도 포함가능 span : inli..
-
[HTML5] HTML5 의 기본구조 알아보기IT&컴퓨터공학/HTML&CSS 2021. 1. 2. 23:49
웹 개발할때 항상 사용하던 HTML5 ! 항상 원하는 부분만 찾아서 쏙쏙 사용해와서 기본기가 부족하다는 생각이들었다. 그래서 HTML / CSS 의 가장 기본적인 것 부터 블로그에 포스팅하면서 정리해보기로했다! : 항상 가장 먼저 선언되어야한다. 선언된 페이지의 HTML 버전이 무엇인지를 웹 브라우저에 알려주는 역할을 하는 선언문 : 이 파일은 html 이라고 정의내리는 것 : 페이지를 열면 웹 브라우저에 표시되지는 않음. , css 링크, 파비콘(favicon), 그리고 다른 메타데이터(작성자, 중요한 키워드와 같은 HTML에 대한 내용) 이 여기에 들어간다. ex) 같은걸 본적이있을것이다. 이 메타태그는 HTML 문서의 인코딩을 UTF-8 형식으로 하 라는 뜻 : 페이지를 열면 실제 웹 브라우저에 표..
-
수식IT&컴퓨터공학/딥러닝 2020. 12. 7. 20:34
Discounted return : 보상과 감가율을 통해 얻게 되는것 : G로 표현 상태가치함수 : 에이전트가 그 상태로 갈 경우 앞으로 받을 보상의 합에 대한 기댓값 ※ 상태 가치함수 변형 : Discouted Return 을 풀어써서 가치함수로서 재귀적으로 표현 → 벨만 기대 방정식 벨만 기대 방정식 : 현재 상태의 가치함수와 다음상태의 가치함수의 관계를 나타냄 행동가치함수 ( 큐함수 ) : 상태 s에서 a라는행동을 했을 때 받은 보상 큐함수로 나타낸 상태가치함수 정책 파이 : s에서 a라는 행동을 할 확률 큐함수 : 상태 s에서 a라는 행동을 했을 때 받은 보상 벨만기대방정식 형태로 나타낸 큐함수 정책을 고려해서 쓴 상태가치함수 : 사실 상태가치함수는 정책에 의존적이므로 정책까지 제대로 써줘야함 큐..
-
DQN 코드- cartpoleIT&컴퓨터공학/딥러닝 2020. 12. 7. 16:47
DQN : 타겟신경망 / 학습신경망 다르게 운영 타켓신경망은 에피소드마다 업데이트 학습신경망은 스텝마다 업데이트 리플레이 메모리 : 샘플을 저장해 두는 저장소 if 연속적인 샘플들이 샘플링 되면 학습 속도가 매우느려짐 이를 방지하기 위해서 샘플들을 리플레이 메모리에 저장해두고, 나중에 여기서 랜덤샘플링을 해서 학습 시킴 train.py 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73..
-
폴리시 그레이디언트IT&컴퓨터공학/딥러닝 2020. 12. 7. 01:08
정책기반 강화학습 - 여기서 인공신경망은 정책신경망이라고 함 ( 때문에 출력층의 활성함수는 'softmax' 를 이용 - 합해서 1이 나와야 하므로) train.py 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 1..
-
딥살사 코드 - 딥러닝의 시작IT&컴퓨터공학/딥러닝 2020. 12. 7. 00:40
이전까지 큐테이블을 이용했지만 장애물이 움직이는 것과 같은경우 상태 개수와 행동갯수가 너무 커지는 경우에 큐테이블을 사용할 수 없음. 더이상 직접 계산이 불가능하므로 인공신경망을 이용해서 모델이 스스로 학습하도록 한다. 딥살사 = 살사알고리즘 + 인공신경망 이용 원래 큐함수 업데이트 식 이거 상태하나하나 계산하는거 불가능 하니까 -> 주황색 글씨만 알면 이걸 최소로 하는 모델을 만들면되겠다. 딥살사에서 사용하는 오차함수 식 이걸 최소로 하는 모델을 만들자 ! -> 경사하강법 이용 train.py 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 4..
-
큐러닝 코드 ( off policy TD control ) => 학습정책 =! 행동정책IT&컴퓨터공학/딥러닝 2020. 12. 6. 23:49
살사는 행동정책과 학습정책이 동일해서 그리드월드에 갇히는 경우가 발생함 예를들어 전 에피소드에서 맞는 길을 가던중에 장애물로 가는 행동을 해서 현재상태의 가치함수가 낮아지면 다음 에피소드에서도 이 상태로는 다신 안감 -> 원래 맞는길인데 거기로 안가고 계속 뱅글뱅글 돔 이걸 극복한게 큐러닝 큐러닝은 학습정책과 행동정책을 따로 둔다. 벨만 최적방정식을 이용한다. environment.py 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 ..
-
살사 코드IT&컴퓨터공학/딥러닝 2020. 12. 6. 23:31
environment.py 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123..