Math 33 Review

Review for Math 33 - Linear Algebra at UCLA

Homework 1:

  • 增广矩阵 Augmented matrix:
    • sovling system equations
  • 简化行阶梯形 Reduced Row Echelon Form

Homework 2:

  • 秩 Rank:
  • 自由元 Free variable:
    • finding all possible numbers for variables
  • 线性变换 Linear transformation:
    • determining weather a function is linear
    • 线性变换判断方法:
      • if (v, w) in R
      • => T(v + w) = T(v) + T(w)
      • => T(av) = aT(v)

Homework 3:

  • 变换矩阵 Transformation matrix:

    • finding the matrix of linear transformation (M)
  • 矩阵乘法 Matrix multiplication:

  • 子空间 Subspace:

    • 子空间判断方法与判断矩阵是否是linear相近:
      • if (v, w) in S
      • => (v + w) in S
      • => av in S
  • 线性生成空间 Span:

    • 判定w是否在span中:
    • could we find a*v1 + b*v2 + … +n*vn = w in span{v1…vn}
    • using augemented matrix to solve the problem

Homework 4:

  • 线形独立 linearly independent:

    • determining weather a matrix M is linearly independent
      • RREF
  • 核 Kernal:

    • kernal(M) -> sending all vectors to 0
  • 象 Image:

    • image(M) -> equivalent to the span of the columns of M
  • 逆 Inverse:

    • 逆矩阵与矩阵操作后原矩阵不变:A = M-1MA

    • 判断一个矩阵是否可逆:

    • determining whether a matrix M is invertible:

      • 方形矩阵 Square matrix
      • 满秩 Full rank
      • 行列式不为零 det(M) != 0
    • Calculating the invert matrix:

      • 高斯消元法
  • finding basis

Homework 5:

  • 寻找T的象的线性组合空间 finding image(T) = span(v1, v2, ….vn):

    • image(T) = span{col(T)} -> col(T) = {v1, v2, …vn}
  • 基 Basis :

    • standard basis:

    • finding w that perpendicular to vectors span{v1 … vn}:

      • (v1 · w) = 0, (v2 · w) = 0, … (vn · w) = 0
    • 在以B = {b1, b2, …bn}为基的坐标系中表示向量w:

      • 将w分解为基向量之和 (a * b1) + (b * b2) + … + (n * bn)
      • 将factors组成一个新的col向量[a, b, … n]
    • 相似变换矩阵 Similar matrix:

      • 同一个线性变换,不同基下的矩阵,称为相似矩阵
    • 求以B为基的坐标系的相似变换矩阵 B-matrix

      • B = S-1TS(以B为基的坐标系的变换矩阵)
      • find the matrix of the linear transformation defined by T(v) = w with respect to the basis {b1, b2, … bn}
      • 将bn带入T(),得到变化后的wn
      • 分解wn为aw1 + bw2 + … + nwn
      • 将factors的解组成一个新的col向量
      • B-matrix = [col1, col2, … coln]
  • let T: R3 -> R3 be the orthogonal projection onto the line spanned by [1 1 1]. Find a basis for which this projection matrix is diagonal

Homework 6:

  • 正交 orthogonal:

    • 矩阵A是否正交判断:AT = A-1
    • 正交矩阵的行列式永远等于+-1
  • 标准正交基 Orthonormal:

    • 所有基向量两两正交
    • 所有基向量模长为1
  • 正交投影 Orthogonal Projection:

    • 正交投影公式:
    • 注意:投影的两个基向量必须是标准正交基
    • projspan{u, v}w = projuw + projvw
    • projvw = [(u · v)/(v · v)]v
  • QR分解 QR factorization (Gram–Schmidt process):

    • 首先将第一个向量w1单位化
      • v = w1 / ||w1|| (第一个向量v等于第一个原有向量w1除以其模长)
    • 然后将第二个向量w2标准正交化:
      • u = (w2 - projvw2) / ||(w2 - projvw2)||
      • (第二个向量u等于第二个原有向量w2减去w2在向量v上的投影除以其模长)
      • 最后将第三个向量w3标准正交化:
      • t = (w3 - projspan{v, u}w3) / ||(w3 - projspan{v, u}w3)||
      • (第三个向量u等于第三个原有向量w3减去w3在平面span{v, u}上的投影除以其模长)

Homework 7:

  • 正交补空间 V:

    • find a basis for the subspace V
    • 首先找到矩阵M,令V是M的象。因此我们需要解关于V的增广矩阵以得到V = span{col(M)}:
      • let M = [v1, v2, … vn] for vi in V
      • V = image(M) : (V = image(M) = span{col(M)})
    • 正交补空间中的向量与原空间中所有的向量垂直:
      • 因此(w in V), (v in V) -> v · w = 0
      • V = ker(MT): w · v = MTV = 0 (MT = span{row(M)})
    • 解关于ker(MT)的增广矩阵,得到所有可以组成V的向量
    • 取一组自由元作为V的标准基,得到basis(V)
  • 最小平方法 Least squares method:

    • find least-squares solution x*(最小平方解) of the system:
    • ATAx* = ATb
  • 行列式 Determinant:

    • 如果M将原有空间volume放大n倍,则det(M) = n
    • 如果det(M) = 0,则原有空间被降维,因此此时不可逆

Homework 8:

  • 初等变换 Elementary transformation

    • 当某一行row加到另一行row2时,行列式不变:det(M’) = det(M)
    • 当某一行row被放大n倍时,行列式放大n倍: det(M’) = n * det(M)
    • 当交换两个row时,行列式取负值:det(M’) = -det(M)
  • 行列式计算技巧:

    • det(M) = RREF后的对角线的值相乘
    • det(M) = 0, if M linearly depandent
    • det(M) = det(MT)
  • 特征值 Eigenvalues λ 与特征向量 Eigenvector:

    • 在M对原有空间进行线性变换时,存在一些向量(特征向量)只发生了倍数变换(Mv = λv)。
    • 求解特征值:det(M-λI) = 0
    • 特征值可以为0,但特征向量不能为0
    • 不可逆方程必有特征值0
  • 平行六面体 Parallelepiped的volume计算:

    • 将基向量变换到对应的顶点坐标,得到变换矩阵T
    • 计算|det(T)|

Homework 9:

  • 特征基 eigenbasis:
    • 由矩阵的特征向量组成的一组基
    • 解出特征值,得到特征向量,带入值,组成基
  • 特征空间 eigenspace
    • 特征空间的维度决定了是否能找到矩阵的特征基,只有特征空间的维度等于矩阵的维度,才能找到特征基。
  • 对角化
    • 对角化的本质是将当前矩阵M的基变更为其特征基
    • 以特征基作为矩阵新的基,新的基可以组成变换矩阵S
    • 将特征基向量v与矩阵M进行乘法,得到变换后的向量位置
    • 将向量分解为特征基的加和w
    • 将factors的解组成一个新的col向量
    • B-matrix = [col1, col2, … coln]
    • 对角化矩阵M = SM’S-1,(该操作是相似变换矩阵的逆运算)
    • 对角化矩阵的对角线是特征值
  • 矩阵乘方
    • 先将矩阵M对角化为M’
    • 计算M’的乘方,直接将对角线上的数值乘方
    • M = SM’S
Author

Xander

Posted on

2022-11-20

Updated on

2023-03-27

Licensed under

Comments