Matrix as Linear Transformation

linear-algebra
Matrix as Linear Transformation
Author

JS HUHH

Published

January 7, 2021

 

function vs linear transformation

function vs linear transformation

 

위의 내용을 이해할 수 있다면, 여기 내용에서 더 배울 것이 없다. 일단 잘 봐두도록 하자. 나중에 돌아와서 음미하면 의미가 와 닿을 것이다.

선형 변환은 특별한 형태의 함수로 이해할 수 있다. 다만 투입과 산출이 다양한 차원(벡터)을 취할 수 있다. 그리고 이 선형 변환이 매트릭스로 표현될 수 있다. 때문에 매트릭스 표현이 강력하다. 추상적인 선형 변환 함수를 구체적으로 표현하고 쉽게 계산할 수 있게 만드는 것이 매트릭스다.

Linear Transformation

Concepts

  • \(V\): \(T\)의 인풋
  • \(W\): \(T\)의 아웃풋
  • \(T: V \to W\): \(V\)에서 \(W\)로의 선형 변환
    • \(T(\vec v) = \vec w\). 즉, \(\vec v \in V\)\(\vec w \in W\)로 변환하는 것을 나타낸다.

 

함수로서의 행렬

함수로서의 행렬

 

함수와 마찬가지로 위의 선형 변환에서 치역(Im(\(T\)))와 커널(스칼라 함수에서는 \(f(x) = 0\)의 해)이 정의된다.

\[ {\rm Im}(T) \overset{\rm def}{=} \{ \vec w \in W | \vec w = T(\vec v) \text{ for some } \vec v \} \subseteq W \]

\[ {\rm Ker}(T) \overset{\rm def}{=} \{ \vec v \in V | T(\vec v) = \vec 0 \} \subseteq V \]

Matrix Representation

인풋, 아웃풋의 기저 벡터를 다음과 같이 두자.

\[ B_V = \{ \vec e_1, \dotsc, \vec e_n \} \]

\[ B_W = \{ \vec b_1, \dotsc, \vec b_m \} \]

  • \(M_T \in \mathbb R^{m \times n}\)은 선형 변환 \(T\)의 매트릭스 표현이다.
  • 보다 정확하게 표현해보자.

\[ \phantom{}_{B_W}[M]_{B_V} \]

즉, \(V\)의 기저로 표현되는 인풋을 \(W\)의 기저로 표현되는 아웃풋으로 바꿔준다.

Linearity

선형의 의미는 무엇일까? 기하적으로 선을 다룬다는 뜻이 아니다. 선형의 의미는 함수적인 의미다. 아래 그림을 보자.

 

선형 매핑의 의미

선형 매핑의 의미

 

즉,

\[ T(\alpha_1 \vec v_1 + \alpha_2 \vec v_2) = \alpha_1 T(\vec v_1) + \alpha_2 T(\vec v_2) = \alpha_1 \vec w_1 + \alpha_2 \vec w_2 \]

Matrix as Linear Transformation

왜 매트릭스가 선형 변환을 나타낼 수 있는지를 좀 더 들여다보자.

\[ \begin{aligned} T(\vec v) &= T(v_1{\hat e_1} + \dotsb + v_n{\hat e_n} ) \\ & = v_1 T(\hat e_1) + \dotsb+ v_n T(\hat e_n) \\ & = \begin{bmatrix} \vert & \vert & \vert \\ T(\hat e_1) & \cdots & T(\hat e_n) \\ \vert & \vert & \vert \end{bmatrix} \vec v \\ & = M_T {\,} \vec v \end{aligned} \]

그냥 외우자!

Mapping Spaces

선형 변환을 다시 적어보자. \(T: V \to W\) where \({\rm dim}(W) = m\), \({\rm dim}(V) = n\). 변환 \(T\)\(n\) 차원의 투입 벡터를 \(m\) 차원의 산출 벡터로 바꿔주는 것이다. 우리가 관심이 있는 것은 \({\rm dim}(W) \times {\rm dim}(V)\) 의 차원을 지니는 매트릭스 \(M_T\)이다.

변환임을 강조하기 위해서 \(M\)에 하첨자 \(T\)를 붙였다.

먼저 \(T\)의 산출부터 따져보자. 산출은 \(M_T\)의 열 벡터의 가능한 모든 조합으로 구성된다. 즉, \(T\)의 치역 \({\rm Im}(T)\)\(M_T\)의 컬럼 스페이스다. 즉,

\[ {\rm Im} (T) = \lbrace \vec w \in W | \vec w = T(\vec v), ~ \text{for some} ~ \vec v \in V \rbrace = \mathcal C(M_T) \]

한편 변환 \(T\)의 커널(kernel)은 \(M_T\)의 널 스페이스를 의미한다. 즉,

\[ {\rm Ker} (T) = \lbrace \vec v \in V | T(\vec v) = \vec 0_{m} \rbrace = \lbrace \vec v \in V | T(\vec v) = M_T \vec v = \vec 0_m \rbrace = \mathcal N(M_T) \]

이 변환의 투입이 지니는 차원을 생각해보자. \(n\) 차원은 로우 공간이 생성하는 \(\mathcal R (M_T)\)와 널 공간으로 가는 \(\mathcal N(M_T)\)으로 나뉘게 된다. 그리고 이 공간은 서로 orthogonal direct sum 관계다. 투입해 해당하는 \(V\)의 공간은 다음과 같이 표기할 수 있다.

direct sum의 의미에 대해서 먼저 살펴보자. 만일 \(V\) 라는 벡터 스페이스가 서로 선형 독립인 서브 스페이스 \(V_1, V_2, \dotsc, V_k\)를 통해 생성된다고 하자. 이를 표기하면,

\[ W = {\rm span}(V_1, V_2, \dotsc, V_k) \]

로 쓸 수 있다. 이때 \(V_i\)\(V\)의 서브 스페이스인 경우 이를 direct sum으로 표기한다.

\[ W = V_1 \oplus V_2 \oplus \dotsb \oplus V_k \]

이때 \(V_i, V_j\) for \(i, j \in \lbrace 1, 2, \dotsc, k \rbrace\)가 서로 orthogonal한 것이 orthogonal direct sum이다.

\[ V = \mathcal R (M_T) \oplus \mathcal N (M_T) \]

앞서의 내용을 두 식으로 압축하면 아래와 같다.

\[ T: \mathcal R(M_T) \to \mathcal C(M_T),~ T: \mathcal N(M) \to \{ \vec 0 \} \]

함수처럼 투입 \(\vec v \in \mathbb R^n\)을 생성하는 정의역(domain)은 \(\mathcal R(M_T)\)의 선형 결합, 즉 \(1 \times n\)의 벡터 \(m\) 개를 선형 결합한 공간으로 이뤄져 있다. 한편 산출 \(\vec w \in \mathbb R^m\)을 생성하는 치역(range)은 \(\mathcal C(M_T)\)의 선형 걸합이다. 한편, 투입 \(\vec v \in \mathcal N(M_T)\)는 변환을 거쳐서 \(M_T {\,}\vec v = \vec 0_{m} \in W\)로 대응된다.

흔히 매트릭스 \(M_T\)에서 \(m \times n\)이 크기일 때 앞의 \(m\)을 투입 부분의 차원이라고 착각하기 쉽다. 이는 최종 결과물을 떠올리면 쉽니. \(M_t{\,}x = y\)일 떄 산출 벡터 \(y\)\({\rm dim} (y) = m\)이다. 혼동하지 말자.

Surjective and Injective

 

전사 함수와 단사 함수

전사 함수와 단사 함수

 

함수에서 전사 함수와 단사 함수의 개념을 그대로 적용할 수 있다. 선형 변환 혹은 행렬도 함수다.

만일, \(\vec v_1 \neq \vec v_2\)이고 \(\vec v_1, \vec v_2 \in \mathcal R(M_T)\)라면 이는 선형 변환의 정의에 따라서 서로 다른 \(\vec w\)로 매핑된다. 따라서 만일 단사 변환이 되려면, \(\mathcal N(M_T) = \{ \vec 0 \}\)만 성립하면 된다.

\[ Ay - Az = A(y-z) \]

단사 변환이란 오직 \(x = y\)일 때만 \(Ax = Ay\)가 성립한다는 뜻이다. 즉 위의 식에서 \(A(x-y) = 0\)\(x=y\)일 때만 성립하면 된다. 즉, \(A x = 0\)\(x=0\)일 때만 성립하면 된다. 전사 변환의 정의는 통상적인 정의, 공역(co-domain)과 치역(range)이 같은 경우에 해당한다. 즉, \({\rm Im} (T) = \mathbb R^m\).

매트릭스의 맥락에서 다시 음미해보자. 만일 전사(surjective) 변환이 되려면 \(n \geq m\)이 성립해야 한다. 로우 스페이스의 차원이 컬럼 스페이스보다 커야 컬럼 스페이스 전체를 생성할 수 있다. 반면 단사(injective) 변환이 되려면 \(n \leq m\)이 되어야 한다. 1-1 대응이 가능하려면 컬럼 스페이스의 크기가 로우 스페이스보다 커여 한다.

따라서 전단사 변환이 되기 위한 조건은 \(m=n\)이다. 함수에서 역함수가 존재하려면 전단사 함수여야 한다. 선형 변환도 마찬가지다. 역행렬이 존재하기 위한 필요 조건은 정방 행렬, \(m=n\)이다.

보다 상세한 내용은 여기를 참고하자.