-
- Transformation
- Domain: 정의역
- Co-domain: 공역
- Image: 함수의 output, 함수값
- Range: 치역
- Linear Transformation: 어떤 함수 T가 linear하면, T(cu + dv) = cT(u) + dT(v)
- ex) y=3x+2는 선형 결합일까? -> 아니다
- x1=1 T(x1)=5 , x2=2 T(x2)=8
- 1. 3*1+4*2=11 T(11)=35
- 2. 3*x1+4*x2=47
- ex) y=3x+2는 선형 결합일까? -> 아니다
- ex2) 선형변환 T, ℝ2 → ℝ3
T=[[2,0],[-1,1],[1,2]] - ex3) 선형변환 A, ℝ3 → ℝ2
A=[[1,4,5],[2,3,6]] - Linear Transformation in Neural Networks
- Affine Layer: bias term을 포함하는 완전히 연결된 layer, linear layer은 아님
- Image with 4 pixels and 3 classes (cat/dog/ship)
- Affine Layer: bias term을 포함하는 완전히 연결된 layer, linear layer은 아님
입력벡터=[56,231,24,2]에 선형계수의 결합으로서 1추가, 출력벡터의 크기=[3,5] 'CS 공부 > AI' 카테고리의 다른 글
최적화 (Optimization) (0) 2023.01.11 베이즈 통계학 (0) 2023.01.10 Neural network (0) 2023.01.09 경사 하강법 (0) 2023.01.09 DL_Basic 1강. Historical Review (0) 2023.01.08 - Transformation