深度学习基础理论篇(1)线性代数
线性代数的本质:用不同的方式和角度,对空间的变换进行不同的描述同一个点在不同的坐标系下,其坐标是不同的,而线性代数可以反映同一个点在不同坐标系的坐标和不同坐标的关系。
线性代数的本质:用不同的方式和角度,对空间的变换进行不同的描述
同一个点在不同的坐标系下,其坐标是不同的,而线性代数可以反映同一个点在不同坐标系的坐标和不同坐标的关系

一.向量和线性组合
向量(vector):是一种包含大小和方向的量。只由它的方向和长度来决定,与位置无关。
向量的长度(或模):
比如,点A平面坐标为(x, y),点O平面坐标为(0,0),向量=(x-0, y-0)=(x, y)
向量的加减法:三角形法则 / 平行四边形法则
加法:首尾相连 减法:尾尾相连

向量的乘法:
点乘(内积):
=C(常数)
C>0, ; C=0,
; C<0,
叉乘(外积):
得到的结果是垂直于两向量所确定平面的一个向量

线性组合:
为常数,
为
中的向量,
为向量
的线性组合
线性表示就是用线性组合来表示
线性相关:存在不为零的系数使线性组合为零
线性无关:n个向量组成的向量组的线性组合只在系数为零时是为零
理解:若有两个线性无关的向量,则表示其中一个向量为另一个向量提供了一个新的维度。即,n个线性无关的向量可以通过线性组合张成一个n维空间。
通俗来讲就是说,一个向量表示一条线,是一维空间;现在有另一个与之线性无关的向量,为它提供了一个新的维度,使两个向量组成的线性组合表示成一张平面,是二维空间。
也就是说,原来的一维向量叠加了一个线性无关的向量,就是叠加了一个维度,实现了一维向二维的转变。反之,线性相关就没有提供一个新的维度。

张成空间:向量的全部线性组合所构成的向量集合
秩:该向量组张成空间的维度。向量组有多少个线性无关的向量,秩就是多少。
二.矩阵 和线性变换
矩阵:形如
或
标准正交基:向量两两垂直,且模长为1
矩阵代表了一种线性变换,从标准正交基到矩阵的列组成的基



注:若矩阵的列是线性相关的,那么代表至少有两个向量共线的,即代表由矩阵的列组成的向量组的维度<列数 ,所以该矩阵是从标准正交基的高维压缩到低维的线性变换。
矩阵向量的乘法:是向量的变换,把矩阵所描述的线性变换作用于向量上。
我认为,就是把在矩阵所表示的坐标系上的向量所对应的在标准正交基下的对应向量算出来。
矩阵x矩阵向量=直角坐标系向量 -----------> 逆矩阵x直角坐标系向量=矩阵向量


矩阵变换(变换到标准正交基上)
逆矩阵还原(还原到矩阵的基上)
矩阵矩阵的乘法:复合线性变换

矩阵的转置:交换矩阵的行和列

三.特征值与特征向量
特征向量:经过矩阵变换后,还是与原来所处的直线共线,并不会因为矩阵的线性变换发生旋转从而离开原本所在的直线,即矩阵仅对特征向量进行拉伸和压缩。
特征值:特征向量拉伸的倍数


魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐


所有评论(0)