ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 선형변환
    CS 공부/AI 2023. 1. 10. 20:35
    • Transformation
      • Domain: 정의역
      • Co-domain: 공역
      • Image: 함수의 output, 함수값
      • Range: 치역

     

    •  Linear Transformation: 어떤 함수 T가 linear하면,  T(cu + dv) = cT(u) + dT(v)
      •  ex) y=3x+2는 선형 결합일까?  -> 아니다 
        • x1=1 T(x1)=5 , x2=2 T(x2)=8
        • 1. 3*1+4*2=11 T(11)=35
        • 2. 3*x1+4*x2=47

      • ex2) 선형변환 T, ℝ2 → ℝ3

    T=[[2,0],[-1,1],[1,2]]

     

    • ex3) 선형변환 A, ℝ3 → ℝ2

    A=[[1,4,5],[2,3,6]]

     

    • Linear Transformation in Neural Networks
      • Affine Layer: bias term을 포함하는 완전히 연결된 layer, linear layer은 아님
        • Image with 4 pixels and 3 classes (cat/dog/ship)

    입력벡터=[56,231,24,2]에 선형계수의 결합으로서 1추가, 출력벡터의 크기=[3,5]

     

     

    'CS 공부 > AI' 카테고리의 다른 글

    최적화 (Optimization)  (0) 2023.01.11
    베이즈 통계학  (0) 2023.01.10
    Neural network  (0) 2023.01.09
    경사 하강법  (0) 2023.01.09
    DL_Basic 1강. Historical Review  (0) 2023.01.08
Designed by Tistory.