支持向量机(Support Vector Machine, SVM)方法是通过一个非线性映射,把样本空间映射到一个高维乃至无穷维的特征空间中(Hilbert空间),使得在原来的样本空间中非线性可分的问题转化为在特征空间中的线性可分的问题,简单地说,就是升维和线性化。升维就是把样本向高维空间做映射,一般情况下这会增加计算的复杂性,甚至会引起维数灾难,因而人们很少问津。但是作为分类、回归等问题来说,很可能在低维样本空间无法线性处理的样本集,在高维特征空间中却可以通过一个线性超平面实现线性划分(或回归)。
一般的升维都会带来计算的复杂化,SVM方法巧妙地解决了这个难题:应用核函数的展开定理,就不需要知道非线性映射的显式表达式:由于是在高维特征空间中建立线性学习机,所以与线性模型相比,不但几乎不增加计算的复杂性,而且在某种程度上避免了维数灾难。这一切要归功于核函数的展开和计算理论。
正因为有这个优势,使得SVM特别适合于进行有关分类和预测问题的处理,这就使得它在量化投资中有了很大的用武之地。