ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • Neural network
    CS 공부/AI 2023. 1. 9. 21:29

         

    신경망을 수식으로 분해한 것

    • softmax 연산: 모델의 출력을 확률로 해석할 수 있게 변환해주는 연산

    - 분류 문제를 풀 때 선형모델과 소프트맥스 함수를 결합하여 에측

    - softmax 함수를 통해 R^p에 있는 벡터를 확률벡터로 변환 

    - 그러나 추론을 할 때는 one-hot 벡터로 최대값을 가진 주소만 1로 출력하는 연산을 사용 (softmax는 학습에 사용)


    - 신경망: 선형모델과 활성함수를 합성한 함수

    잠재벡터 z=(z1,...z,q)의 각 노드에 활성함수 ρ가 개별적으로 작용

    • 활성함수: 비선형 함수 ( sigmoid, tanh, ReLU), ReLU가 딥러닝에 제일 많이 쓰임

    2-layers 신경망
    multi-layer 퍼셉트론(MLP)

    - 층을 여러개 쌓는 이유: 더 적은 노드의 개수로 목적함수를 근사할 수 있어 효율적 학습이 가능


    • 역전파 알고리즘: 합성함수의 미분법인 연쇄법칙 기반 자동 미분을 사용

    역전파 알고리즘 진행 방식

      ex) z=(x+y)^2 , w=x+y 

    간단한 예제

     

    빨간색: 역전파

     

    'CS 공부 > AI' 카테고리의 다른 글

    베이즈 통계학  (0) 2023.01.10
    선형변환  (0) 2023.01.10
    경사 하강법  (0) 2023.01.09
    DL_Basic 1강. Historical Review  (0) 2023.01.08
    부분공간의 기저와 차원  (0) 2023.01.08
Designed by Tistory.