1 Introduction to Eigenvalues
앞의 챕터가 의 문제를 해결하는 거라면, 여기서는 변화에 대한 이야기임. Eigenvector로 해결하려는 것은 문제를 단순하게 푸는 것임. 가령 어떤 벡터에 대한 답이 그 벡터에 단순히 크기만 곱하게 된다면 문제를 쉽게 풀 수 있게 됨.
가령 벡터의 제곱을 구한다면, 제곱을 계속하면 eigenvector에 가까워짐
eigenvalue를 이용하면 100제곱을 하는게 아니라 한방에 찾을수 있다.
아직은 무슨소리인지 제대로 감이 안오지만 일단 알아보자
eigenvector의 정의
어떤 matrix 를 벡터 에 곱해도 그 방향이 변하지 않는 벡터.
일반적으로 2by2 메트릭스의 경우 두개의 eigenvalue를 가짐. 하지만 eigenvalue가 0 이나 1이 될 수도 있음. 그러면 아래와 같은 경우가 발생함
unusual case of
nullspace는 뭔지 아직 모르니 일단 넘어가자
unusual한 경우는 일단 제끼고 이 챕터에서는 인 내용을 주로 다룬다. 이 성립하는 이유는 나중에 유도한다. 우선 예시를 통해 를 구해본다
예시1. 메트릭스 A의 eigenvalue 구하기.
위 식을 풀면 ,를 구할 수 있다. 이를 Eigen vector의 정의에 대입해보면 는 Singular가 된다. 그러면 는 각각 의 nullspace에 놓이게 된다.
- -> 이 되서 첫번째 Eigenvector는
- -> 이 되서 첫번째 Eigenvector는
- 이 내용을 Eigen vector의 정의에 대입하면
- ->
- ->
Question 이 꼭 이여야 하나. 식을 풀이해보면 큰값도 가능해 보이는데. 일단 제낀다
크기가 다른(평행한) eigenvector를 써도 상관없음. Resonable하면 됨. 현재 챕터에서 외 다른걸 고르면 수렴하는 모습을 보여 줄 수 없음
그래서 위 식이 의미하는게 무엇인가. Eigen vector의 정의에다가 양변에 를 곱하면 유도되는 성질이기도 하지만 적어보면 아래와 같다
- 을 해도 eigenvector는 변하지 않는다. 다시말하면 방향은 그대로다
- 을 하면 eigenvalue는 이 된다. 원문에는 그림으로 설명되어 있지만 저작권 문제가 있을거 같아 캡쳐는 하지 않는다.
A의 첫번째 column을 두 eigenvector의 linear combination으로 표현해서 곱하기를 계속해보면(방향이 변하지 않을때 계산이 편리함을 보여주고 싶은 듯)
그렇다면 아래와 같은 식이 성립함
이 과정을 반복하면 아래와 같아짐. 다시 쓰면 두 칼럼중 왼쪽 칼럼이 결국 eigenvector로 수렴함을 보여주고 싶었던 것으로 보임. 하지만 오른쪽 칼럼도 마찬가지로 수렴하게 될 것임
굉장히 유용한 방식으로 보임.
은 안정적인 상태()이고 는 점차 줄어드는(decay()) 상태임.
위 과 같이 안정적인 상태의 eigenvalu와 eigenvector를 가질 때 를 Markov matrix라고 하며 이 내용은 나중에 다룬다
Projection matrix를 라 하면 eigenvalue는
그렇다면 위 조건을 통해 eigenvectors 를 구해보면 ,이 된다. 이 경우를 통해 Markov matrices
, singular matrices
, symmetric matrices
를 알 수 있다. 그러니까 가 이 세 속성을 가지는 친구라는 얘기래. 를 기준으로 이 세가지를 설명하면 이렇다:
Markov matrix
: 의 각 column의 값을 더하면 1이 된다. 그래서 이 된다- 는
singular
하다. 그래서 이 된다 - 는
Symmetric
하다. 그렇기 때문에 , 이 직교한다
위에서 Markov matrix부분이 잘 이해가 안가서 직접 풀어보면 아래와 같다.
#eigenvalue#eigenvalue#linearalgebra
Footnotes
-
- Eigenvalues and Eigenvectors_, (2019). Accessed: Oct. 29, 2023. [Online Video]. Available: https://www.youtube.com/watch?v=cdZnhQjJu4I