关于行列式(determinant),矩阵的逆(reverse),列空间(Column space),秩(rank) ,点积(dot products),叉积(cross products),特征值,特征向量
this very special scaling factor: the factor by which a linear transformation changes any area,is called the determinant of that transformation.
这个特殊缩放比例, 即线性变换改变面积的比例, 被称为这个变换的行列式
所以当我们谈到行列式的时候,要知道它是针对某个矩阵(线性变换)而言,当行列式为负,代表该变换发生 “invert the orientation of spcae” (像是把一张纸翻向了另一面 ).
特殊的,变成0 的时候意味着该变换,怎么说呢, 一个”降维”变换(我自定义的, 使得原有的维度被压缩了)行列式为零的, 该矩阵必然线性相关(因为每一列都代表这i,j,k 的去向, 线性相关意味着变换结果被压缩成一条直线甚至一个点.)
思考题, 为啥求2x3矩阵的行列值是没有意义的
想象一下, 有一个 3x1 的向量, 在这个2x3矩阵作用下(线性变换) ,它的结果会是一个 2x1 的向量. 维数下降了, determinant 代表着面积(体积)的伸缩比例.降维的结果自然是0.
另一种解释: 2x3 两行三列,三列意味着一开始是三维的: i,j,k 每一列代表这 i,j,k 最终的去向.两列代表这最后的结果是一个平面. 这时候体积自然是0 .
矩阵的秩 rank
determinant 只能描述变换是否被压缩到更低的维度, 却不知道压缩后的具体维度.例如有些变换使得立体变成一个平面, 有的甚至会变成一条直线. rank 就是来描述变换后向量占据的维度的.
逆矩阵
矩阵代表这一种线性变化(空间变换), 那就有一种特殊的复原变换.即两个矩阵叠加变换后什么也没有发生.(transformation ,and then , transformation in reverse , like nothing happend)
逆矩阵的一种用途就是 求解 线性方程组 Linear system of equations.
在已知空间变换(矩阵A) 和变换后的向量v, 求变换前的向量x.
特别的,一个矩阵的逆矩阵要求 det 不能是0. 因为0意味着变换是降维的.线性变换可以降维,却不能升维.
you can not “unsquish” a line to turn it into a space . at least , that’s not something that a function can do . that would require transforming each individual vector into a whole line full of vector,but functions can only take a single input to a single output.
你无法将一条直线”解压缩”成一个平面.至少不是function 会有的功能. 这样就会要求将一个单独的向量变换成一整条线的向量.但函数只能将一个输入变换成另一个输出
列空间与零空间 ,
列空间: 矩阵(空间线性变换)作用于空间每一个向量后能得到的向量集合
Column space of A: Set of all possible outputs Ax = v,
零空间: 特别的,某个向量x 在矩阵A(空间线性变换)后,结果是原点.(当然,原点本身不管什么作用都是原点)
对应的线性方程组是, 当v 为零向量时, 对应的x 解.
null space : This set of vectors that lands on the origin , is called the “null spcae” or the “kernel” of your matrix. It’s the space of all vectors that become null , in the sense that they land on the zero vector.
特征向量与特征值
wiki: eigenvector & eigenvalue
矩阵的作用下, 空间发现变化. 我们会想, 是否会存在一些向量, 变化前后不变?
要是把条件放宽, 线性变换前后只是沿着原来方向(或者相反方向)伸缩.
要是存在这样的向量, 这个向量就叫做该变换的特征向量, 伸缩的值为该特征向量的特征值.
其实要是把矩阵当成function, 会更容易理解,那就是 f(x)=x; 通常的,f(x)= ℨx
当特征向量数量多到可以张成全空间, 你就可以使用这些特征向量, 让它们组成你新空间的基(对应基变换)
点积与对偶性
点积看起来很简单,对应坐标相乘,结果相加.
深究上去,这样的运算对应几何上的意义是什么? 答案是投影.
a fuller understanding of the role the dot products play in math can only really be found under the light of linear transformation.
这里我不打算继续用语言描述整个过程,可以通过视频去体验. 我想抛出一个话题,这个应该发现带来的一种可能,本质上就是在说: 一个非方阵, 可以看作是一个方阵在数轴(或者平面)上的投影.
高维空间的存在对我们来说并不是不可见不可感知的,因为我们的存在本身,就是他们的投影! 我不知道,这在文学上,科学上意味着什么,或许可以意味着很多
叉积 cross products
两个向量的叉积也是一个向量, 数值上为两个向量组成的面积(或者determinant),方向垂直于两个向量(右手法则确定方向)