支持向量机 (Support Vector Machine, SVM)

xiaoxiao2021-02-28  86

1. 定义(与逻辑回归(Logistic Regression, LR)的比较)

1. Hypothesis函数:

LR:

hθ(x)=g(θTx)=11+eθTx

SVM:

hθ(x)=1if   θTx0hθ(x)=0if   θTx<0

2. Cost函数:

LR:

1mi=1m[y(i)(loghθ(x(i)))+(1y(i))(log(1hθ(x(i))))]+λ2mj=1nθ2j

SVM:

Ci=1m[y(i)cost1(θTx(i))+(1y(i))cost0(θTx(i))]+12j=1nθ2j 其中 cost1,cost0 的图像( θTx z ):

由图像可知,为使Cost函数最小,需要: y=1时,尽量使 θTx1 y=0 时,尽量使 θTx1


2. 用Kernel函数定义新特征

1. 原理

给定训练样本 (x(1),y(1)),(x(2),y(2)),...,(x(m),y(m)) l(1)=x(1),l(2)=x(2),...,l(m)=x(m)

对任一 x ,有: f1=similarity(x,l(1))f2=similarity(x,l(2))fm=similarity(x,l(m)) 即用Kernel函数表示 x l的相似程度。一般常将高斯函数用作Kernal函数 (Gaussian Kernel): f(x)=ae(xb)22c2

由此可得特征向量 (Feature Vector): f=f0f1f2fm 类似 x0 f0=1

即实现了原特征向量的如下映射: XRn+1fRm+1

2. Hypothesis函数:

y=1if   θTf0y=0if   θTf<0

3. Cost函数 (n=m)

Ci=1m[y(i)cost1(θTf(i))+(1y(i))cost0(θTf(i))]+12j=1nθ2j

转载请注明原文地址: https://www.6miu.com/read-76365.html

最新回复(0)