Math 33 Review
Review for Math 33 - Linear Algebra at UCLA
Homework 1:
- 增广矩阵 Augmented matrix:
- sovling system equations
- 简化行阶梯形 Reduced Row Echelon Form
Homework 2:
- 秩 Rank:
- 自由元 Free variable:
- finding all possible numbers for variables
- 线性变换 Linear transformation:
- determining weather a function is linear
- 线性变换判断方法:
- if (v, w) in R
- => T(v + w) = T(v) + T(w)
- => T(av) = aT(v)
Homework 3:
变换矩阵 Transformation matrix:
- finding the matrix of linear transformation (M)
矩阵乘法 Matrix multiplication:
子空间 Subspace:
- 子空间判断方法与判断矩阵是否是linear相近:
- if (v, w) in S
- => (v + w) in S
- => av in S
- 子空间判断方法与判断矩阵是否是linear相近:
线性生成空间 Span:
- 判定w是否在span中:
- could we find a*v1 + b*v2 + … +n*vn = w in span{v1…vn}
- using augemented matrix to solve the problem
Homework 4:
线形独立 linearly independent:
- determining weather a matrix M is linearly independent
- RREF
- determining weather a matrix M is linearly independent
核 Kernal:
- kernal(M) -> sending all vectors to 0
象 Image:
- image(M) -> equivalent to the span of the columns of M
逆 Inverse:
逆矩阵与矩阵操作后原矩阵不变:A = M-1MA
判断一个矩阵是否可逆:
determining whether a matrix M is invertible:
- 方形矩阵 Square matrix
- 满秩 Full rank
- 行列式不为零 det(M) != 0
Calculating the invert matrix:
- 高斯消元法
finding basis
Homework 5:
寻找T的象的线性组合空间 finding image(T) = span(v1, v2, ….vn):
- image(T) = span{col(T)} -> col(T) = {v1, v2, …vn}
基 Basis :
standard basis:
finding w that perpendicular to vectors span{v1 … vn}:
- (v1 · w) = 0, (v2 · w) = 0, … (vn · w) = 0
在以B = {b1, b2, …bn}为基的坐标系中表示向量w:
- 将w分解为基向量之和 (a * b1) + (b * b2) + … + (n * bn)
- 将factors组成一个新的col向量[a, b, … n]
相似变换矩阵 Similar matrix:
- 同一个线性变换,不同基下的矩阵,称为相似矩阵
求以B为基的坐标系的相似变换矩阵 B-matrix:
- B = S-1TS(以B为基的坐标系的变换矩阵)
- find the matrix of the linear transformation defined by T(v) = w with respect to the basis {b1, b2, … bn}
- 将bn带入T(),得到变化后的wn
- 分解wn为aw1 + bw2 + … + nwn
- 将factors的解组成一个新的col向量
- B-matrix = [col1, col2, … coln]
let T: R3 -> R3 be the orthogonal projection onto the line spanned by [1 1 1]. Find a basis for which this projection matrix is diagonal
Homework 6:
正交 orthogonal:
- 矩阵A是否正交判断:AT = A-1
- 正交矩阵的行列式永远等于+-1
标准正交基 Orthonormal:
- 所有基向量两两正交
- 所有基向量模长为1
正交投影 Orthogonal Projection:
- 正交投影公式:
- 注意:投影的两个基向量必须是标准正交基
- projspan{u, v}w = projuw + projvw
- projvw = [(u · v)/(v · v)]v
QR分解 QR factorization (Gram–Schmidt process):
- 首先将第一个向量w1单位化
- v = w1 / ||w1|| (第一个向量v等于第一个原有向量w1除以其模长)
- 然后将第二个向量w2标准正交化:
- u = (w2 - projvw2) / ||(w2 - projvw2)||
- (第二个向量u等于第二个原有向量w2减去w2在向量v上的投影除以其模长)
- 最后将第三个向量w3标准正交化:
- t = (w3 - projspan{v, u}w3) / ||(w3 - projspan{v, u}w3)||
- (第三个向量u等于第三个原有向量w3减去w3在平面span{v, u}上的投影除以其模长)
- 首先将第一个向量w1单位化
Homework 7:
正交补空间 V⊥:
- find a basis for the subspace V⊥:
- 首先找到矩阵M,令V是M的象。因此我们需要解关于V的增广矩阵以得到V = span{col(M)}:
- let M = [v1, v2, … vn] for vi in V
- V = image(M) : (V = image(M) = span{col(M)})
- 正交补空间中的向量与原空间中所有的向量垂直:
- 因此(w in V⊥), (v in V) -> v · w = 0
- V⊥ = ker(MT): w · v = MTV⊥ = 0 (MT = span{row(M)})
- 解关于ker(MT)的增广矩阵,得到所有可以组成V⊥的向量
- 取一组自由元作为V⊥的标准基,得到basis(V⊥)
最小平方法 Least squares method:
- find least-squares solution x*(最小平方解) of the system:
- ATAx* = ATb
行列式 Determinant:
- 如果M将原有空间volume放大n倍,则det(M) = n
- 如果det(M) = 0,则原有空间被降维,因此此时不可逆
Homework 8:
初等变换 Elementary transformation:
- 当某一行row加到另一行row2时,行列式不变:det(M’) = det(M)
- 当某一行row被放大n倍时,行列式放大n倍: det(M’) = n * det(M)
- 当交换两个row时,行列式取负值:det(M’) = -det(M)
行列式计算技巧:
- det(M) = RREF后的对角线的值相乘
- det(M) = 0, if M linearly depandent
- det(M) = det(MT)
特征值 Eigenvalues λ 与特征向量 Eigenvector:
- 在M对原有空间进行线性变换时,存在一些向量(特征向量)只发生了倍数变换(Mv = λv)。
- 求解特征值:det(M-λI) = 0
- 特征值可以为0,但特征向量不能为0
- 不可逆方程必有特征值0
平行六面体 Parallelepiped的volume计算:
- 将基向量变换到对应的顶点坐标,得到变换矩阵T
- 计算|det(T)|
Homework 9:
- 特征基 eigenbasis:
- 由矩阵的特征向量组成的一组基
- 解出特征值,得到特征向量,带入值,组成基
- 特征空间 eigenspace
- 特征空间的维度决定了是否能找到矩阵的特征基,只有特征空间的维度等于矩阵的维度,才能找到特征基。
- 对角化
- 对角化的本质是将当前矩阵M的基变更为其特征基
- 以特征基作为矩阵新的基,新的基可以组成变换矩阵S
- 将特征基向量v与矩阵M进行乘法,得到变换后的向量位置
- 将向量分解为特征基的加和w
- 将factors的解组成一个新的col向量
- B-matrix = [col1, col2, … coln]
- 对角化矩阵M = SM’S-1,(该操作是相似变换矩阵的逆运算)
- 对角化矩阵的对角线是特征值
- 矩阵乘方
- 先将矩阵M对角化为M’
- 计算M’的乘方,直接将对角线上的数值乘方
- M = SM’S
Math 33 Review