[Linear algebra] Linear transformation and matrix
Linear algebra 2강
본 포스팅은 김영길 교수님의 유튜브 강의를 보고 개인적인 공부 목적으로 적은 것 임을 밝힙니다. 문제가 될 시 삭제하겠습니다.
목차Permalink
- Vector space
- Linear transformation and matrix
- System of linear equations
- Determinant
- Diagonalization
- Inner product space
2.1 Linear transformationPermalink
T: V -> W (여기서 V는 Domain(정의역), W는 Codomain(공역)) T는 Linear transformation을 뜻하고
T가 V -> W의 Linear transformation이 되려면
T(x+y)=T(x)+T(y) - (Additivity)
T(cx)=cT(x) - (homogeneity)
를 모든 x,y in v, c in F에서 성립해야한다. 두 조건을 만족시키는 것을 Super position principle이 성립한다. 고 표현한다.
즉, addition 및 scalar multiplication을 preserve하는 것을 Linear map(= Linear transformation) 이라고 한다.
Properties of Lienar map
- T(0)=0 (Zero vector 의 output은 Zero-vector이다) (즉 해당되는 공간의 벡터는 항등원 및 역원이 존재해야하고, 그렇게 되면 반드시 원점을 지나게 되므로, 당연히 Zero-vector의 Output은 Zero-vector가 된다.)
즉, 아래 그림은 Linear하지 않다.
-
T(cx+y)=cT(x)+T(y)
-
T(x−y)=T(x)−T(y)
-
T(∑ni=1ai∗xi) = (∑ni=1ai∗T(xi)) -> 즉 스칼라곱을 미리하고 Linear transformation을 하나, 나중에 하나 같다는 것이다.
Ex 1. T:R2→R2
(a1,a2)→(2a1+a2,a1)이 LT인가?
2번 성질을 이용해서 풀어봤을 때 성공적이므로 맞다. (LT를 하기 전에 연산을 하던, LT를 한 후에 연산을 하던 같다는 것이다. 위 식에서 T는 연산, -> 는 LT를 뜻한다.)
Ex 2. T:R2→R2
위 그림에서 벡터가 세타만큼 회전하는게 LT인지의 증명은 Additivity 및 homogeneity를 증명하면 된다.
Reflection
T:R2→R2 일 때 (a1,a2)→(a1,−a2)는 LT인가?
역시 Additivity 및 homogeneity를 증명하면 LT라는 걸 알 수 있다.
Projection
이렇게 벡터의 정사영을 내리는 것도 LT이다.
증명은, 어떤 두 벡터의 합의 정사영과 두 벡터 각각의 정사영의 합이 같으면 Additivity가 성립하고
마찬가지로, 한 벡터의 곱의 정사영과, 그 벡터의 정사영의 곱이 같으면 homogeneity가 성립한다는 것을 알 수 있다.
미분, 및 정적분도 LT이다. (부정적분은 상수 C가 튀어나와버리니까 LT가 아니게되어 버릴 수 있다.)
Linear transformation some casesPermalink
- Identity transformation
- V→V 공간에서 x→x
- Zero transformation
- V→W 공간에서 x→0
NullspacePermalink
-
V→W LT할 때 W에서 0가 되는 V내 벡터들의 집합을 Nullspace라고 한다.
-
Identity transformation에서는 x→x 여야 하므로, Nullspace가 되는 집합은 x=0으로만 구성된다.
-
Zero transformation에서는 x→0 이어야 하므로, Nullspace가 되는 집합은 V 내 속한 벡터 전체이다.
image / preimage / RangePermalink
-
image : X→Y로 LT했을 때 x→y가 된다고 하면, y가 image가 된다.
-
pre-image : X→Y로 LT했을 때 x→y가 된다고 하면, x가 pre-image가 된다.
-
Range : 치역의 부분집합을 의미한다. 즉 image들의 집합을 의미한다고 생각하면 될 듯.
Ex 8.Permalink
- I:V→V 에서, x→x일 때
N(I)=0이고, R(I)는 그 자체가 된다.
EX 9.Permalink
- T0:V→V 에서, x→0 일 때
N(T0)=V,R(T0)=0가 된다. 설명은 필요없겠지?
Ex 9-1Permalink
- T: R3→R2
(a1,a2,a3)→(a1−a2,2a3) 일 때 Nullspace는 a1 = a2이고, a3=0 일 때의 집합을 의미하므로
Span(1,1,0)이 T의 Null space가 된다.
여기서 Range는 전체 집합이 된다. 왜냐하면 a1, a2, a3의 조절로 모든 R^2를 만들어낼 수 있으므로
Thm 2.2Permalink
T:P2(R)→M2∗2(R) 이 선형적일 때,
V의 basis의 집합이 b일 때, R(T)=Span(T(B))를 증명.
증명을 위해서는 서로 속한다는 걸 증명해야 함.
Span(T(b)) in R(T) 증명
basis의 image는 R(T) 내에 포함되어 있다. 이는 W의 Subspace이므로 그 부분집합의 (basis의) span 또한 반드시 포함해야하므로 증명된다.
## Ex. 10
- $T: P_2(R) \to M_22(R)$ Linear 할 때, f(x) = a2x^2 + a1*x + a0 \to [f(1) - f(2) 0 ] [ 0 f(0) ] basis = {1, x, x^2} 일 때 P_2(R).
T(f(X))=T(1) = a2=0, a2=0 이라는 뜻.
Nullity and RankPermalink
-
Nullity = Nullspace의 dimension
-
Rank = Range의 dimension
one-to-one(단사함수), onto(전사함수)Permalink
-
One-to-one mapping => x!=y→T(x)!=T(y) (정의역이 서로 다를 때, 치역 역시 서로 다른 것)
-
Onto mapping T(V) = W (치역과 공역이 같을 때)
Ex. 11Permalink
-
T:P2(R)→P3(R)
-
T(f(x)) = 2/prime{f}(x) + \integral{0}^{x} 3f(t)dt
-
일 때 rank(T), nullity(T), one-to-one, onto를 구하라
-
즉 2차식 -> 3차식으로 갈 때 저 4가지를 구하라~ 이 문제이다.
-
R(T)=Span(T(1),T(X),T(X2))=Span(3x,2+32x2,4x+x3) 이 된다. 이 때, 세 원소는 서로 Linearly-independent하므로 rank(T) = dim(R(T)) = 3이다. 이 때, 공역의 Dimension은 dim(P3(R))=4이므로, 공역과 치역은 달라진다. 따라서 T는 전사함수가 아니다.
- nullity(T)+치역demension=정의역demension−>0+3=3=rank(T)
-
Nullity는 0. Zero-vector 하나만을 원소로 가진다. 따라서 T는 one-to-one이다.
- 또한 one-to-one 함수는 image당 하나의 pre-image만 대응해야 하므로, nullity가 0라는 말은(Only Zero-vector) one-to-one이 되고 one-to-one이면 nullity가 0라고 할 수 있다.
S가 linearly independnt할 때, one-to-one이면 T(S)도 linearly independent하다.Permalink
-
T가 일반적으로 linear 하기만 하면, 이건 성립하지 않는다.
-
one-to-one(단사함수) 일 때는 가능하다.
-
∑ni=1ai∗T(vi)=0 일 때, T는 linear하니까 밖으로 빼줄 때, 이게 성립하려면 one-to-one이므로 nullspace일 때 밖에 없다. 따라서 ai=0여야 하므로, T(S)는 Linearly independent하다. 다시 말하자면, 이 식이 linearly dependent하다면, 좌측변에 an이 0이 아닌 애가 있어야 할텐데 그런애가 없으므로, Linearly independent하다고 할 수 있다.
Ex 13.Permalink
-
T:P2(R)→R3 , a0+a1x+a2x2→(a0,a1,a2) 일 때, 예시 넣어보면, S가 Linearly independent하다는 것을 증명 가능하다.
-
Basis를 LT했을 때 같은 곳으로 mapping 된다면, 그 공간에 속하는 나머지 원소들도 같은 곳으로 mapping된다. 너무 자명해서 설명은 생략.
정리Permalink
- LT의 성질
Properties of Lienar map
- T(0)=0 (Zero vector 의 output은 Zero-vector이다) (즉 해당되는 공간의 벡터는 항등원 및 역원이 존재해야하고, 그렇게 되면 반드시 원점을 지나게 되므로, 당연히 Zero-vector의 Output은 Zero-vector가 된다.)
즉, 아래 그림은 Linear하지 않다.
-
T(cx+y)=cT(x)+T(y)
-
T(x−y)=T(x)−T(y)
-
T(∑ni=1ai∗xi) = (∑ni=1ai∗T(xi)) -> 즉 스칼라곱을 미리하고 Linear transformation을 하나, 나중에 하나 같다는 것이다.
-
Reflection (-x1, y1) -> (x1, y1) 및 정사영도 LT이다.
-
Nullity는 Nullspace (치역이 zero가 되는 정의역의 집합)의 차원이고, Rank는 Range(치역)의 차원이 된다.
-
단사함수는 정의역이 서로 다를 때, 치역이 서로 다른 것. 즉 One-to-One. 일 대 일 매핑이라고 생각하면 된다.
-
전사함수는 치역과 공역이 같은 것을 의미한다.
Matrix representationPermalink
-
LT는 항상 행렬로 나타낼 수 있다.
-
A=[T]γβ는 ordered basis인 β를 LT인 T를 통해서 다른 ordered basis인 γ로 LT하겠다는 걸 나타낸다.
Ex.1Permalink
-
In F3,β=e1,e2,e3
-
e1=(100) e2=(010) e3=(001)
-
r=e2,e1,e3 일 때 β!=γ 일 때
-
집합으로 보면 β=γ 인데, oredered bases로 보면 서로 다르다.
Def.Permalink
-
V, W : Finite-dimensional vector space에서 T:V→W 일 때 V의 ordered basis β=v1,v2,…,vn,W의orderedbasis\gamma = {w_1, w_2, …, w_m} 일 때
-
T(vj)=∑mi=1aijwi로 표현이 가능하고, 이 때 aij를 통해서 이 LT를 행렬로 표현할 수 있다.
Ex.3Permalink
-
T:R2→R3일 때 (a1,a2)→(a1+3a2,0,2a1−4a2)이면 β를 R2의 Basis로 (10), (01)이 되겠지) γ를 R3의 Basis로 (([100][010][001])이 되겠지) 삼을 때, ([T]β)γ를 어떻게 나타낼까?
-
T(1,0)=(1,0,2)=1e!+0e+2+2e3,T(0,1)=(3,0,−4)=3e1+0e2−4e3으로 나타낼 수 있다. en은 물론, R^3의 Basis들이다.
-
이걸 나타내면 (13002−4)로 나타낼 수 있다.
-
만약, rprime를 e3,e2,e1으로 바꾼다면 단순히 행의 순서만 저것에 맞게 배치해주면 된다.
-
결론적으로는, 그냥 LT인데, 순서를 신경써라~ 이거다.
-
LT를 규정하고, 순서를 신경써서 하면 된다.
Def. LT의 모음은 그 자체가 Vector space가 된다.Permalink
Ex.5Permalink
- T:R2→R3이고, U:R2→R3 일 때, 서로 LT식이 다르다고 해도, (T+U)의 LT 결과도 같다. 이게 당연한게, 예전에 이미 T(x+y) = T(x) + T(y)를 증명하지 않았던가
따라서 ordered basis가 적용된다고 해도, 이는 같다. 이와 유사하게 역시 Ordered basis라고 해도 cT(x) = T(cx) 역시 성립한다.
U * T * X 가 있을 때는, T와 X를 먼저 계산하고, 그 다음에 U와의 계산을 진행한다.Permalink
앞서 설명했지만, Ordered basis를 가지는 LT도 교환법칙 및 결합법칙이 모두 성립한다. 또한 Additivity 및 Homogeneouty 역시 성립한다.Permalink
Matrix multiplicationPermalink
-
일반적으로 알고있는 행렬의 곱이다.
-
그렇다면 왜 이렇게 곱하는가?
-
C=AB이고, Cij=σk=0mAikBkj일 때, 이는 A원소와 B원소의 내적이(Dot product니까) C의 원소가 됨을 나타낸다.
-
이건 또 왜이럴까? 알아보기로 한다.
-
그 전에, 행렬의 곱이란 단순히 숫자를 그리드형태로 나타내어서 곱해주는게 아니라, 차원(Dimension)을 바꿔주는 것이란 걸 기억하자.
이해를 돕기 위한 예시 1Permalink
- 공간 V,W,Z가 있고, V→W를 T, W→Z를 U라고 할 때, α,β,γ는 각각 V,W,Z의 Basis Vector를 의미한다고 하자.
-
여기서 V에서 Z로가는 함수를 나타내려면, 두개의 LT를 거쳐야한다. 이 두 LT를 한 식으로 표현하려면?
-
행렬 곱으로 나타낼 수 있다 → UT(α)=U(T(α))
-
또한, [T]βγ를 B로 [U]γβ를 A로 나타낼 수 있다.
-
T를 먼저 처리해야하므로, T가 더 뒤에 있는걸 주의 (교환법칙이 성립하지 않는다.)
-
즉, 합성함수는 행렬 곱으로 나타낼 수 있다는 걸 알면된다.
-
또한 (AB)t=BtAt를 기억하기.
Ex. 2Permalink
-
U는 미분(3차원 → 2차원), T는 정적분(2차원 → 3차원)이고, α,β는 각각 3차원 및 2차원의 기저벡터가 된다.
-
따라서 α=1,x,x2,x3이 되고, β=1,x,x2이 된다.
-
U, 즉 미분을 어떻게 행렬식으로 나타낼까? 여기서는 3차원을 2차원으로 Projection 시키는 역할을 한다.
-
U(α)는 U(1)=0,U(x)=1,U(x2)=2x,U(x3)=3x2으로 나타낼 수 있으므로
-
U*변환 시킬 차원 이라고 생각하면 U는 U=(010000200003)
-
로 나타낼 수 있다.
-
이유는 행렬 곱을 진행했을 때의 결과물은 3x4행렬 곱하기 4x1행렬은 3x1행렬이 되어서 한 차원 내려가므로 미분을 행렬로 나타냈다고 할 수 있겠다.
-
반대로 T는 T(1)=x,T(x)=(x2)/2,T(x2)=(x3)/3으로 나타낼 수 있으므로 마찬가지로 T뒤에 변환시킬 차원이 곱해진다고 생각할 때
-
T=(00010001/20001/3)라고 생각하면 된다.
-
즉, 쉽게 생각하면, LT는 행렬로 나타낼 수 있고, 차원 변환 행렬의 뒤에 원래 차원이 곱해지니까 차원 변환 행렬의 행은 바뀐 후의 차원을, 열은 바뀌기 전의 차원을 나타낸다고 생각하면 편할듯 하다.
Kronecker delta functionPermalink
-
σij=1(i=j)/2(i!=j)
-
즉, Identity matrix는 이 Kronecker delta function으로 그대로 나타낼 수 있다. σij=Iij
Zero-divisorPermalink
-
조금 갑자기 나왔지만, 대수학에서는 중요한 개념.
-
AB=0일 때, A도 B도 0가 아닐 수 있다.
-
다시 말하자면, 이건 약분이 안된다고 생각하면 된다.
-
항상 4로 나눈 나머지만 가지는 세상이 있다고 할 때, 2*2는 0이 된다. 2는 0이 아닌데도 말이다. 극단적인 예시이기는 하지만 저런식으로 디자인되는 케이스를 Zero-divisor라고 생각하면 된다.
ThmPermalink
- 위에 설명한 대로, 왼쪽에 LT를 곱해주는걸 Left multiplication transformation이라고 하고 A에 LT를 곱해주는 것을 LA 와 같이 나타낸다.
InvertibilityPermalink
-
역함수를 구할 수 있느냐 없느냐를 의미.
-
UT=TU=I일 때, U=T−1로 나타내고, T는 U의 Inverse라고 표현할 수 있다.
-
또한, 단사함수가 아니면 함수 정의가 안된다. 왜냐하면 Inverse했을 때 어떤 preimage로 가야하는지 모르기 때문이다.
-
또한, 전사함수가 아니어도 함수 정의가 안된다. 전사함수가 아니라는 것은 치역에 속하지 않는 공역이 있다는건데, 그건 역함수를 곱했을 때 preimage로 바뀔만한게 없기 때문이다.
-
따라서 T의 역함수를 구할 수 있다는 이야기는, T는 전단사함수라는 것과 같은 이야기가 된다.
정리Permalink
-
Ordered basis는 Polynomial으로 표현되어 있는 식을 좌표로 나타내기 위해서 필요한 basis이다.
-
Ordered basis는 좌표를 표현하는 것이므로, 집합처럼 나타나더라도 순서가 정해져 있다.
-
LT는 행렬곱으로 표현될 수 있다. Left multiplication transform의 경우 A를 LT한다고 할 때 LA와 같이 표현한다.
-
Left multiplication transform의 경우 Transform matrix의 행이 바뀔 행렬의 차원-1이 된다. 열은 바뀌기 전 행렬의 차원-1이 된다.
-
LT를 먼저하고 Ordered basis를 통해 좌표로 표현하든, 좌표로 먼저 표현하고 LT를 하든, 결과는 같다.
-
행렬은 약분이 안된다. 정방행렬일 경우 역행렬을 통해서 구할 수는 있다. 아니면 Gauss 소거법을 통해 parameter를 얻어야 한다.
-
합성함수역시 행렬곱으로 표현할 수 있다. 다만, 주의해야 할 것은 먼저 곱해지는게 곱해지는 수와 가깝게 써야한다는 의미이다.
-
예를 들자면, L은 1->2차원, T는 2->3차원이고 A가 1차원 Vector일 때 Result = TL(A)가 되어야 하는 것이다.
-
역함수는 함수가 단사함수이자 전사함수이어야한다.
InvertibilityPermalink
-
역함수가 존재하는지.
-
역함수가 존재하려면 저번 시간에 증명한대로, 전사함수이자, 단사함수가 되어야한다. 두 조건을 만족시키지 못하면, 어떻게든 Pre-image가 없는 Image들이 생기기 때문이다.
-
(TU)−1=U−1T−1이어야 한다.
-
(T−1)−1=T 이어야 한다.
-
T라는 LT가 있고, dim(V)=dim(W)일 때 전사함수이자 단사함수여야한다.
Def.Permalink
-
V,W : Vector space일 때, T가 LT이고, T:V−>W를 취할 때, 이 LT의 역행렬이 존재하면 V와 W는 구조적으로 똑같은 Vector space이다.
-
위의 증명과 같이, 차원이 다르거나 하면 역행렬이 존재할 수가 없다.
-
이것을 V와 W가 Isomorphic하다고 표현한다.
Change of coordinate matrix (좌표 변환 행렬)Permalink
-
위 그림에서 나타나 있는 x,y 좌표계를 x′,y′ 좌표계, 즉 타원을 표현하는 좌표계로 변환시키려고 한다.
-
이를 x,y를 사용해서 나타내려면, 제일 위에 있는 식처럼 4xy라는 합성함수가 붙지만, 제일 아래에 있는 식과 같이 좌표계를 변환함으로써 합성함수 없이 간단히 나타낼 수 있다.
-
이런 역할을 하는 행렬을 보통은 Q로 나타낸다.
-
Q는 항상 Invertable하다. 그 이유는 Q가 Identity Transformation의 행렬 Representation이기 때문이다. 즉, LT를 통해, 동일한 값이지만 차원을 변경한다고 생각하면 Q가 Identity transformation의 행렬 표현이라는 것에 대해서 감이 올 듯 하다.
Ex. 1Permalink
-
β=(1,1),(1,−1)이고 ,β′=(2,4),(3,1)이라 할 때
-
[(2,4)](β′)=(10)로 나타낼 수 있다.
-
이건 (2, 4)라는 벡터를 β′으로 나타내라는 문제인데, (2, 4)에다가 뭘 곱하면 β′이 될지를 생각해보면 [1, 0]이 되는 이유를 알 수 있다.
Def.Permalink
- B=Q−1AQ 일 때, B와 A는 Similar하다고 표현한다. 이것은 즉, B와 A가 서로 같은 LT를 나타내고 있다는 뜻이다.
nxn elementary matrixPermalink
-
Identity matrix에 특정 Operation을 취해서 변환한 행렬을 의미한다.
-
이렇게 만들어진 행렬을 다른 행렬과 곱하면, 곱해진 행렬에 위의 그 ‘특정 Operation’을 취하게 된다.
-
즉, (3 x 3) Identity matrix의 2행 3행을 서로 바꾼 elementary matrix를 만들었다고 가정하자. 이걸 다른 행렬에 곱하면, 곱해진 그 행렬의 2행 3행을 바꾸는 역할을 하게 된다.
-
Elementary matrix 간의 곱은 Identity matrix가 된다. 한번 해보면 직관적으로 이해된다.
-
Elementary matrix는 항상 Invertable하다. (Inverse matrix는 물론 해당 Elementary matrix이다. 곱해서 Identity matrix가 되야할테니까)
Rank of MatrixPermalink
-
Matrix의 Rank는 Matrix의 Range의 Demension을 뜻한다. 따라서 이건 Matrix에 LT를 취했을 때의 Rank라고 볼 수 있으니, rank(A)=rank(LA) 가 된다.
-
이것에 대한 증명은 하지 않지만, LT를 행렬로 나타냈을 때 Range는 그 행렬의 Row space의 dimension이라고 할 수 있는데 이는 결과 행렬에도 선형적으로 적용될 것이므로 위 성질은 이해할 수 있을 것이다.
-
LT를 행렬로 나타냈을 때, 이 행렬이 Invertable matrix이면 원 행렬의 Rank가 그대로 유지된다.
-
이는 LT 행렬이 정방행렬이라는 것을 뜻하고, LT 행렬의 Rank가 Row의 개수와 같다는 것을 의미하기 때문에 원 행렬의 Rank가 그대로 유지되는 것이다.
-
만약 LT 행렬이 Invertable하다는 보장이 없으면, 행렬 곱이 거듭될 수록 행렬의 Rank는 계속 작아지게 되겠지.
댓글남기기