Skip to content

Latest commit

 

History

History
73 lines (37 loc) · 5.75 KB

support-vector-machines-concise-technical-overview.md

File metadata and controls

73 lines (37 loc) · 5.75 KB

支持向量机:简明技术概述

原文:www.kdnuggets.com/2016/09/support-vector-machines-concise-technical-overview.html

分类涉及建立一个模型,将数据分为不同的类别。通过输入一组预先标记类别的训练数据来构建此模型,以便算法能够学习。然后,模型通过输入另一组类别未标记的数据集来使用,根据从训练集中学到的内容预测其类别。著名的分类方案包括决策树和支持向量机,以及其他众多方案。由于这种类型的算法需要明确的类别标记,分类是一种监督学习形式。

如前所述,支持向量机(SVM)是一种特定的分类策略。SVM 通过将训练数据集转换为更高的维度,然后检查类别之间的最佳分隔边界或边界来工作。在 SVM 中,这些边界被称为超平面,通过定位支持向量或最本质上定义类别的实例以及其边距,即超平面与其支持向量之间的最短距离平行的线来确定。因此,SVM 能够分类线性和非线性数据。

支持向量机的核心思想是,当维度足够高时,可以始终找到一个超平面,将特定类别与其他所有类别分开,从而划分数据集成员类别。当重复足够多次时,可以生成足够的超平面以在n维空间中分离所有类别。重要的是,SVM 不仅寻找任何分离超平面,而是最大间隔超平面,即与各类别支持向量保持等距离的超平面。

SVM

图 1:最大间隔超平面及支持向量。

当数据是线性可分的时,可以选择许多分离线。这样的超平面可以表示为

方程

其中W是权重向量,b是标量偏置,X 是训练数据(形式为(x[1], x[2] ))。如果我们将偏置b视为额外的权重,则方程可以表示为

方程

这可以转化为一对线性不等式,求解大于或小于零,其中任何一个满足的情况都表示一个特定点位于超平面之上或之下。找到最大边际超平面,即距离支持向量等距的超平面,是通过将线性不等式组合成一个方程并将其转化为受约束的二次优化问题来完成的,使用拉格朗日形式并通过Karush-Kuhn-Tucker 条件进行求解。

在此转换之后,最大边际超平面可以表示为

方程

其中 bα[i] 是学习到的参数,n 是支持向量的数量,i 是一个支持向量实例,t 是训练实例的向量,y[i] 是特定训练实例的类值,a(i) 是支持向量的向量。一旦识别出最大边际超平面并完成训练,仅支持向量与模型相关,因为它们定义了最大边际超平面;所有其他训练实例都可以忽略。

当数据不是线性可分的时,数据首先会通过某个函数转换到更高维空间,然后在该空间中寻找超平面,另一个二次优化问题。为了避免增加的计算复杂度,所有计算可以在原始输入数据上进行,这些数据可能具有较低的维度。这种较高的计算复杂度基于这样一个事实:在更高维度中,需要计算每个实例与每个支持向量的点积。使用核函数,它将一个实例映射到由特定函数创建的特征空间,在原始的低维数据上使用。一个常见的核函数是多项式核,它表示为

方程

计算 2 个向量的点积,并将结果提升到 n 的幂。

SVM 是强大且广泛使用的分类算法,在当前深度学习兴起之前,它们已经吸引了大量的研究关注。尽管对旁观者而言,它们可能不再是最前沿的算法,但它们在特定领域确实取得了巨大的成功,并且仍然是机器学习从业者和数据科学家工具包中最受欢迎的分类算法之一。

上述内容是对 SVM 的一个非常高层次的概述。支持向量机是一个复杂的分类器,更多的信息可以通过从这里开始找到。

相关:

  • 数据挖掘历史:支持向量机的发明

  • 支持向量机:简单解释

  • 如何选择支持向量机核


我们的前三个课程推荐

1. 谷歌网络安全证书 - 快速进入网络安全职业轨道

2. 谷歌数据分析专业证书 - 提升你的数据分析水平

3. 谷歌 IT 支持专业证书 - 支持你的组织进行 IT 管理


更多相关主题