-
Neural networkCS 공부/AI 2023. 1. 9. 21:29
신경망을 수식으로 분해한 것 - softmax 연산: 모델의 출력을 확률로 해석할 수 있게 변환해주는 연산
- 분류 문제를 풀 때 선형모델과 소프트맥스 함수를 결합하여 에측
- softmax 함수를 통해 R^p에 있는 벡터를 확률벡터로 변환
- 그러나 추론을 할 때는 one-hot 벡터로 최대값을 가진 주소만 1로 출력하는 연산을 사용 (softmax는 학습에 사용)
- 신경망: 선형모델과 활성함수를 합성한 함수
잠재벡터 z=(z1,...z,q)의 각 노드에 활성함수 ρ가 개별적으로 작용 - 활성함수: 비선형 함수 ( sigmoid, tanh, ReLU), ReLU가 딥러닝에 제일 많이 쓰임
2-layers 신경망 multi-layer 퍼셉트론(MLP) - 층을 여러개 쌓는 이유: 더 적은 노드의 개수로 목적함수를 근사할 수 있어 효율적 학습이 가능
- 역전파 알고리즘: 합성함수의 미분법인 연쇄법칙 기반 자동 미분을 사용
역전파 알고리즘 진행 방식 ex) z=(x+y)^2 , w=x+y
간단한 예제 빨간색: 역전파 'CS 공부 > AI' 카테고리의 다른 글
베이즈 통계학 (0) 2023.01.10 선형변환 (0) 2023.01.10 경사 하강법 (0) 2023.01.09 DL_Basic 1강. Historical Review (0) 2023.01.08 부분공간의 기저와 차원 (0) 2023.01.08