데이터 사이언스

    <데이터 사이언스/Data Science> 3. 신경망 학습

    노션에서 작성한 노트를 HTML로 가져오기 때문에 형식이 어색할 수 있습니다. !잘 보이지 않으시면 오른쪽 밑의 달 모양 버튼을 클릭해주세요! 페이지 배경지식비선형 분리 문제는 자동으로 학습 불가능신경망의 매개변수는 수천에서 수억에 이를 수 있어 수작업으로 매개변수를 정할 수 없음손실 함수: 신경망이 학습할 수 있도록 해주는 지표신경망은 데이터를 학습함으로서 매개변수의 값을 자동으로 결정함손실 함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 목표 - 예) 경사법 (함수의 기울기 활용)데이터 주도 학습기계학습/딥러닝(신경망): 데이터에서 패턴을 발견하여 답을 찾는 것 - 이때 사람의 개입을 최대한 배제하는 것이 중요단순해 보이는 문제여도 알고리즘을 구현하는 것이 매우 어려울 수 있음 - 설계..

    <데이터 사이언스/Data Science> 2. 신경망

    노션에서 작성한 노트를 HTML로 가져오기 때문에 형식이 어색할 수 있습니다. !잘 보이지 않으시면 오른쪽 밑의 달 모양 버튼을 클릭해주세요! 신경망: 가중치 매개변수의 적절한 값을 데이터로부터 자동으로 학습하는 능력을 지님 은닉층의 뉴런은 겉으로 드러나 있지 않음활성화 함수:입력 신호의 총합을 출력 신호로 변환하는 함수y=h(b+w1x1+w2x2)h(x)={1x>00x≤0y=h(b+w_1x_1+w_2x_2)\\ h(x) = \begin{cases} 1 & \text{$x \gt 0$}\\ 0 & \text{$x \le0$}\end{cases}y=h(b+w1​x1​+w2​x2​)h(x)={10​x>0x≤0​위의 식은 다음의 두 단계로 나눌 수 있음:a=b+w1x1+w2x2a = b + w_1x_1 + w..

    <데이터 사이언스/Data Science> 1. 퍼셉트론

    노션에서 작성한 노트를 HTML형식으로 가져오기 때문에 어색할 수 있습니다. !잘 보이지 않으시면 오른쪽 밑의 달 모양 버튼을 클릭해주세요! 퍼셉트론: 프랑크 로젠블라트가 1957년에 고안한 알고리즘 신경망(딥러닝)의 기원이 되는 알고리즘 원리: 다수의 신호를 입력으로 받아 하나의 신호를 출력함 출력하는 신호는 0과 1 두 가지 값만을 가질 수 있음 위의 원을 뉴런 혹은 노드라고 부름 x는 입력 신호, w는 가중치, y는 출력 신호 각 입력신호에 그에 상응하는 가중치가 곱해지고 정해진 한계(임계값θ)를 넘으면 1, 보다 작으면 0 임계값을 넘는 것을 '뉴런이 활성화한다'라고도 표현 입력 신호 각각에 고유한 가중치가 부여됨 가중치: 각 신호가 결과에 주는 영향력을 조절하는 매개변수 - 클수록 해당 신호가 ..

    <데이터 사이언스/Data Science> 0. 노트 공유

    이번에 새롭게 데이터 사이언스를 공부하며 노트를 기록하기 시작하였습니다. 공부 자료는 이수안컴퓨터연구소 유튜브와 밑바닥부터 시작하는 딥러닝(사이토 고키 저)입니다. 그 외 참고 자료는 이미지 캡션이나 밑에 따로 작성해두었습니다. 노트는 노션에서 작성했기 때문에 실시간으로 업데이트되며 이곳에서 볼 수 있습니다. Data Science Resource www.notion.so