Skip to content

Latest commit

 

History

History
302 lines (156 loc) · 15.1 KB

essential-math-data-science-basis-change-basis.md

File metadata and controls

302 lines (156 loc) · 15.1 KB

数据科学的基本数学:基和基的变化

原文:www.kdnuggets.com/2021/05/essential-math-data-science-basis-change-basis.html

评论图片

基和基的变化

理解特征分解的一种方式是将其视为基的变化。你将在这篇文章中学习什么是向量空间的基。


我们的前三个课程推荐

1. 谷歌网络安全证书 - 快速进入网络安全职业生涯

2. 谷歌数据分析专业证书 - 提升你的数据分析水平

3. 谷歌 IT 支持专业证书 - 支持你在 IT 领域的组织


你会看到空间中的任何向量都是基向量的线性组合,并且向量中看到的数字取决于你选择的基。

最终,你将看到如何使用基变换矩阵改变基。

将矩阵分解视为特征分解或奇异值分解是一种很好的方法。如你在数据科学的基本数学第九章所见,通过特征分解,你选择基使得新矩阵(类似于原始矩阵)变为对角矩阵。

定义

是用于描述向量空间(向量集合)的坐标系统。它是你用来将数字与几何向量关联的参考。

被认为是基的向量组必须:

  • 线性无关。

  • 生成空间。

空间中的每个向量都是基向量的唯一组合。空间的维度定义为基集合的大小。例如,ℝ²中有两个基向量(对应于笛卡尔平面中的xy轴),或者ℝ³中有三个。

数据科学的基本数学第 7.4 节所示,如果一个集合中的向量数量大于空间的维度,则它们不能是线性无关的。如果一个集合包含的向量少于维度数,这些向量不能生成整个空间。

如你所见,向量可以表示为从原点到空间中某一点的箭头。这个点的坐标可以存储在一个列表中。笛卡尔平面中向量的几何表示意味着我们采用一个参考:由两个轴xy给出的方向。

基向量 是指对应于此参考的向量。在笛卡尔平面上,基向量是正交的单位向量(长度为 1),通常记作 ij

图

图 1:笛卡尔平面中的基向量。

例如,在图 1 中,基向量 ij 分别指向 x 轴和 y 轴的方向。这些向量给出了标准基。如果你将这些基向量放入一个矩阵中,你会得到以下单位矩阵(有关单位矩阵的更多细节,请参见 数据科学基础数学 第 6.4.3 节):

方程

因此,I[2] 的列生成了 ℝ²。以同样的方式,I[3] 的列生成了 ℝ³,依此类推。

正交基

基向量可以是正交的,因为正交向量是独立的。然而,反之并不一定成立:非正交向量可以是线性独立的,从而形成基(但不是标准基)。

向量空间的基非常重要,因为与向量对应的坐标值依赖于这个基。顺便提一下,你可以选择不同的基向量,比如图 2 中的那些。

图

图 2:另一组基向量。

请记住,向量坐标依赖于隐含的基向量选择。

基向量的线性组合

你可以将向量空间中的任何向量视为基向量的线性组合。

例如,考虑以下二维向量 v

方程

图

图 3:向量 v 的分量。

向量 v 的分量是对 x 轴和 y 轴的投影(vxvy,如图 3 所示)。向量 v 对应于其分量的和:v = vx + vy,你可以通过缩放基向量来获得这些分量:v[x] = 2i 和 v[y] = −0.5j。因此,图 3 中显示的向量 v 可以被视为两个基向量 ij 的线性组合:

图像

其他基

单位矩阵的列并不是唯一的线性独立列向量的情况。你可以在 ℝ^n 中找到其他线性独立的 n 个向量集。

例如,让我们考虑 ℝ² 中的以下向量:

方程

方程

向量 vw 在图 4 中表示。

图

图 4:二维空间中的另一组基。

从上面的定义来看,向量vw是一个基,因为它们是线性无关的(你不能通过其他向量的组合来获得其中一个),并且它们张成了空间(通过这些向量的线性组合可以到达整个空间)。

重要的是要记住,当你使用向量的分量(例如vxy分量)时,这些值是相对于你选择的基的。如果使用其他基,这些值会有所不同。

你可以在数据科学的基础数学的第九章和第十章中看到,改变基的能力在线性代数中是基础性的,并且是理解特征分解或奇异值分解的关键。

向量是相对于一个基定义的

你看到,将几何向量(空间中的箭头)与坐标向量(数字数组)关联时,你需要一个参考。这个参考就是你的向量空间的基。因此,向量应该始终相对于一个基来定义。

让我们考虑以下向量:

方程式

xy分量的值分别是 2 和-0.5。默认使用标准基。

你可以写Iv以指定这些数字相对于标准基的坐标。在这种情况下,i被称为基变换矩阵

方程式

你可以使用不同于i的矩阵来相对于另一个基定义向量。

基向量的线性组合

向量空间(可能的向量集合)是根据一个基来描述的。几何向量作为一组数字的表达意味着你选择了一个基。使用不同的基,相同的向量v会关联不同的数字。

你看到基是一组线性无关的向量,这些向量张成了空间。更确切地说,一组向量是基,如果空间中的每个向量都可以被描述为基向量的有限线性组合,并且该集合是线性无关的。

考虑以下二维向量:

方程式

在ℝ²笛卡尔平面中,你可以将v视为标准基向量ij的线性组合,如图 5 所示。

图像

图 5:向量v可以被描述为基向量ij的线性组合。

但是,如果你使用其他坐标系统,v将与新的数字相关联。图 6 展示了使用新坐标系统(i′j′)表示的向量v

图像

图 6:相对于新基坐标的向量v

在新的基下,v是一个新的数字集合:

方程式

基础变换矩阵

你可以使用 基础变换矩阵 从一个基础转换到另一个基础。为了找到新基础向量的矩阵,你可以将这些新基础向量 (i′j′) 表示为旧基础 (ij) 中的坐标。

让我们再次回顾前面的例子。你得到:

方程

方程

如图 7 所示。

图

图 7:新基础向量相对于旧基础的坐标。

由于它们是基础向量, i′j′ 可以表示为 ij 的线性组合。

方程

方程

让我们将这些方程写成矩阵形式:

方程

为了将基础向量作为列,你需要转置矩阵。你得到:

方程

这个矩阵叫做基础变换矩阵。我们称之为 CC

方程

如你所见,基础变换矩阵的每一列都是新基础的一个基础向量。接下来你将看到,你可以使用基础变换矩阵 CC 将向量从输出基础转换到输入基础。

基础变换与线性变换

基础变换和线性变换之间的区别是概念性的。有时,将矩阵的作用视为基础变换是有用的;有时,当你把它看作线性变换时,你会得到更多的见解。要么你移动向量,要么你移动它的参考。这就是为什么旋转坐标系统的效果与旋转向量本身的效果相反的原因。对于特征分解和奇异值分解,这两种视角通常会一起考虑,这最初可能会让人感到困惑。记住这一点将对书的后半部分非常有用。这两者之间的主要技术区别是基础变换必须是可逆的,而线性变换则没有这个要求。

寻找基础变换矩阵

基础变换矩阵将输入基础映射到输出基础。我们将输入基础称为 B[1],其基础向量为 ij,将输出基础称为 B[2],其基础向量为 i′j′。你得到:

方程

方程

从基础变换的方程中,你可以得到:

方程

如果你想找到给定 B[1]B[2] 的基础变换矩阵,你需要计算 B[1] 的逆以隔离 C

方程

换句话说,你可以通过将输入基矩阵 (Equation,包含输入基向量作为列) 的逆矩阵与输出基矩阵 (Equation,包含输出基向量作为列) 相乘来计算基变换矩阵。

将向量从输出基转换到输入基

小心,这个基变换矩阵允许你将向量从 Equation 转换到 Equation ,而不是相反。直观地说,这是因为移动一个物体是与移动参考系相反的。因此,要从 Equation 转换到 Equation,你必须使用基变换矩阵 Equation 的逆矩阵。

请注意,如果输入基是标准基 (Equation),那么基变换矩阵只是输出基矩阵:

Equation

可逆基变换矩阵

由于基向量是线性无关的,矩阵 C 的列是线性无关的,因此,正如 《数据科学中的基础数学》 第 7.4 节所述, C 是可逆的。

示例:向量的基变换

让我们改变向量 v 的基,再次使用图 6 中表示的几何向量。

符号

你将把 v 的基从标准基变换到新的基。我们将标准基表示为 Equation,新基表示为 Equation。记住,基是一个包含基向量作为列的矩阵。你有:

Equation

Equation

让我们将相对于基 Equation 的向量 v 表示为 Equation

Equation

目标是找到相对于基 Equation 的 v 的坐标,记作 Equation

方括号符号

为了区分用来定义向量的基,你可以将基名称(如 公式)以下标的形式放在向量名称后面,括在方括号内。例如,公式 表示相对于基 公式 的向量 v,也称为 v 相对于 公式表示

使用线性组合

图片

图片

让我们编写代码:

v_B1 = np.array([2, 1])
B_2 = np.array([
    [0.8, -1.3],
    [1.5, 0.3]
])

v_B2 = np.linalg.inv(B_2) @ v_B1
v_B2 
array([ 0.86757991, -1.00456621]) 

这些值是向量 v 相对于基 公式 的坐标。这意味着如果你去到 0.86757991i′−1.00456621j′,你会到达标准基中的位置(2, 1),如图 6 所示。

结论

理解基的概念是处理矩阵分解(也称为矩阵因式分解),如特征分解或奇异值分解(SVD)的一个好方法。从这些术语来看,你可以将矩阵分解视为寻找一个基,其中与变换相关的矩阵具有特定属性:因式分解是一个基变换矩阵、新的变换矩阵,最后是基变换矩阵的逆矩阵,以回到初始基(更多细节见数据科学基础数学第九章和 10 章)。

个人简介:Hadrien Jean 是一位机器学习科学家。他拥有巴黎高等师范学院的认知科学博士学位,主要研究行为和电生理数据下的听觉感知。他曾在工业界工作,构建了用于语音处理的深度学习管道。在数据科学与环境交汇的领域,他从事利用深度学习分析音频记录进行生物多样性评估的项目。他还定期在 Le Wagon(数据科学训练营)创作内容并授课,并在他的博客中撰写文章(hadrienj.github.io)。

原文。经许可转载。

相关内容:

  • 数据科学基础数学:标量和向量

  • 数据科学基础数学:矩阵与矩阵乘积导论

  • 数据科学基础数学:信息论

更多相关内容