-
Vector x và giá trị \lambda lần lượt được gọi là vector riêng (eigenvector) và trị riêng (eigenvalue) của ma trận A khi: Ax = \lambda x
-
Một hệ cơ sở u = {u1, u2, ..., un} được gọi là một hệ trực giao (orthogonal) khi các vector trong hệ cơ sở u đó là các vector khác vector 0 và tích vô hướng của 2 vector khác nhau bất kì bằng 0.
-
Một hệ cơ sở u = {u1, u2, ..., un} được gọi là một hệ trực chuẩn (orthonormal) khi nó là một hệ trực giao và độ dài Euclidean (norm 2) của các vector trong hệ bằng 1.
-
Phương pháp Dimensionality Reduction sử dụng Phân rã ma trận (Matrix Factorization/Decomposition)
-
Ý tưởng: biểu diễn 1 ma trận A thành các ma trận nhỏ hown: A = USV.T
Trong đó:
-
U, V là ma trận được tạo bởi 2 hệ trực chuẩn U, V.
-
S: ma trận chéo (trong 1 số trường hợp, ma trận S không vuông nhưng vẫn tạm gọi là ma trận chéo).
-
A = USV.T và A.T = VS.TU.T
-
A.TA = VS.TU.TUSV.T = VS.TS*V.T
-
A.TA = VSSV.T
-
A.TAV = VSS
-
A * V = U * S
Cho ma trận A bất kì
-
B1: Tìm A.T * A
-
B2: Tìm trị riêng và vector riêng của kết quả trong B1.
-
B3: Cho det(A.T * A - \lambda * I) = 0. Tìm ra \lambda
-
B4: Căn bậc hai của \lambda là các phần tử trên đường chéo của ma trận S. => Tìm ra S.
-
B5: Ứng với \lambda, tìm trị riêng và vector riêng của các ma trận A.T * A - \lambda * I. Từ đó tìm ra các singular vector của V. => Tìm ra V.
-
B6: Dùng tính chất (5) ở phần 3, tìm ra U.
-
Giảm chiều dữ liệu (Image Compression là ví dụ).
-
Cơ sở của các phương pháp giảm chiều dữ liệu khác (Truncated SVD, PCA, v.v.).