2. 北京德威佳业科技有限公司博士后科研工作站, 北京 100020;
3. 大庆油田有限责任公司第五采油厂信息中心, 黑龙江 大庆 163318;
4. 东北石油大学教育部提高油气采收率重点实验室, 黑龙江 大庆 163318
2. Post Doctoral Scientific Research Workstation, Beijing Deweijiaye Science and Technology Corporation Ltd., Beijing 100020, China;
3. Information Center of Production Plant No.5, Petro China Daqing Oilfield, Daqing 163318, Heilongjiang, China;
4. Key Laboratory on Enhanced Oil and Gas Recovery of the Ministry of Education, Northeast Petroleum University, Daqing 163318, Heilongjiang, China
模型组合按一定准则和方式整合假设空间中多个模型, 提高学习系统的泛化性和稳定性, 是机器学习研究的重要课题之一。
基于统计学习理论发展起来的支持向量机(support vector machines, SVM)已广泛应用于模式识别[1]和数据挖掘[2]等领域。SVM的性能主要取决于核函数和正则化参数的选择, 常采用交叉验证方法[3]或根据某个模型选择准则[4-10]确定最优的SVM模型。然而, 交叉验证方法的计算开销相对较大, 采用不同模型选择准则确定的最优模型之间差异可能很大, 并且模型复杂性不容易度量和计算。无论采用交叉验证方法, 还是应用某一模型选择准则, 都不可避免地存在过拟合或欠拟合的风险。模型组合注重有效整合并充分利用所有的候选模型, 可有效提升SVM性能[11-17]。
已有的模型组合方法, 如Bagging[11-13]或Boosting[14-16], 通常基于数据采样在不同训练样本子集上产生候选模型集合。这种候选模型产生方法, 一方面需要较大规模的训练样本, 在不同训练样本子集上运行多次, 计算开销较大; 另一方面, 子集划分策略直接影响候选模型的性能, 使得选择子集划分策略成为新的困难。此外, 测试过程中, 已有的模型组合方法一般应用全模型集进行预测, 由于性能较差的模型也参与组合预测, 组合模型的预测性能会有所降低, 并且, 全模型集规模过大也会增加组合预测的计算时间。
针对以上问题, 本研究研究正则化路径上的支持向量回归(support vector regression, SVR)模型组合方法。SVR正则化路径算法能在相当于一次SVR求解的时间复杂度内, 获得正则化参数的所有可能取值及对应的最优解[18-19]。利用这一特性, 可有效地构造出完全的假设空间。已完成的正则化路径上二分类SVM及SVR模型组合方法, 利用正则化路径有效整合假设空间中的模型, 可提高模型的泛化性能[17, 20]。正则化路径上三步式SVM模型组合中, 在预测或测试阶段, 采用输入最近邻方法确定组合模型集[17]。在正则化路径的基础上, 本文研究ε-不敏感SVR (ε-SVR)模型组合, 并采用输入K-近邻方法确定组合模型集, 以降低最近邻方法潜在的风险。首先, 对ε-SVR模型组合的合理性给出基于样本的理论分析, 证明正则化路径上ε-SVR模型组合的一致性, 奠定正则化路径上模型组合的理论基础。然后, 提出基于正则化路径的三步式ε-SVR模型组合方法。
1 SVR模型组合一致性本研究首先给出SVR模型贝叶斯组合方式, 然后证明正则化路径上SVR模型组合一致性。
1.1 SVR模型贝叶斯组合令输入空间为
T={(x1,y1),⋯,(xn,yn)}⊂X×Y |
式中: xi为输入的观测值, 称其为“输入”或“实例”; yi是输出的响应值; (xi, yi)∈T独立同分布于
回归问题中, SVR的目标是给出决策函数f, 使其对任意输入x都给出相应的预测输入ŷ=f(x)。令ε >0, 取ε-不敏感损失函数
Lε(y,f(x))=|y−f(x)|ε=max{0,|y−f(x)|−ε}, |
正则化项为核κ导出的范数‖f‖
minf∈Hκ1nn∑i=1|yi−f(xi)|ε+λ2‖f‖2Hκ, | (1) |
式中:λ为正则化参数, 用于折衷经验风险与模型的复杂度。对于任意给定的正则化参数λ, ε-SVR最优解的有限形式为
f(x)=β0+1λn∑i=1θiκ(x,xi), |
式中, θi∈[-1, +1], i=1, …, n, 其向量形式为θ=(θ1, …, θn)T。
ε-SVR正则化路径算法能求解并记录正则化参数λ的所有取值及对应ε-SVR的解[18], 可记作
RP={θλ|∞>λ≥0}. |
根据上述正则化路径RP可获得正则化参数所有取值下对应的拟合模型fλ, 由此得到完全模型空间, 记作
MRP={fλ|0≤λ<∞}. |
定义完全模型空间
ˉg(x)=m∑j=1Pr(fλj|T)fλj(x), | (2) |
式中:模型fλj∈
Pr(ˆfλj|T)=e−12⋅BIC(ˆfλj)∑ˆfλm∈Me−12⋅BIC(ˆfλm). | (3) |
ε-SVR模型BIC值的计算将在2.2节详细论述。现将正则化路径上SVR贝叶斯组合模型构成的集合记作
G={ˉg(x)=m∑j=1Pr(fλj|T)fλj(x)|fλj∈MRP}. |
对于学习问题来说, 假设空间中存在“真”模型, 则学习得到的模型应该尽可能地逼近“真”模型。
定义1 [一致性] 假设A为某个学习算法, T为训练数据集, n为集合T的规模, fT是A通过T在模型假设空间
limn→∞RP(fT)=R∗P, |
则称算法A是一致的, 并且模型fT是“令人满意的”。由ε-SVR的正则化路径可以得到一个完全模型空间
Lε(y,f(x))=|y−f(x)|ε, |
对于
RLε,P[f]:=E(x,y)∼PLε(y,f(x)), |
正则化Lε-风险定义为
RLε,P,λ[f]:=RLε,P,λ[f]+λΩ(‖f‖Hκ), | (4) |
定义最优Lε-风险
R∗Lε,P:=inf{RLε,P[f]|f:X→measuable}。 |
若P是关于训练数据集T的经验分布, 则
RLε,T[f]:=1nLε(yi,f(xi)), |
和
RregLε,T,λ[f]:=RLε,T[f]+λΩ(‖f‖Hκ), | (5) |
分别表示模型f的经验Lε-风险和正则化经验Lε-风险。可以看出, 若正则化函数
由以上定义, 定义组合模型的Lε-风险
RLε,P[ˉg]:=E(x,y)∼PLε(y,ˉg(x)), |
定义经验Lε-风险
RLε,T[ˉg]:=1nn∑i=1Lε(yi,(xi))。 |
应用以上各类风险, 在定义1的基础上定义Lε -风险一致性。
定义2 [Lε-风险一致性] 设A是一个学习算法, T是训练数据集, n为集合T的势, fT是A通过T在假设空间
limn→∞RLε,P[fT]→PR∗Lε,P, |
则A为Lε-风险一致的。
1.3 模型组合的Lε-风险一致性对输入空间
(1) 输入空间
(2) 输出y的一阶矩有限, 即|y|≤∞;
(3) 假设空间
ˉκ=‖κ‖∞:=supx∈X√κ(x,x)<∞. |
作为Christmann和Steinwart[22]提出的基于凸风险最小化的核回归方法一致性的一个实例, 引理1说明了ε-SVR的一致性。
引理1 假设(1)~(3), 若存在序列(λn)使得λn→0且nλn2 →∞, 则ε-SVR是Lε-风险一致的, 对任意分布P:
limn→∞RLε,P[fT]→PR∗Lε,P |
式中fT为ε-SVR优化问题(1)的最优解。
由于本研究讨论的是正则化路径ε-SVR的模型组合, 因此有必要考查ε-SVR正则化路径上是否存在Lε -风险一致的模型。
命题1 假设(1)~(3), 由ε-SVR正则化路径得到的全模型集中至少包含一个模型是Lε-风险一致的。
证明 由引理1可知, ε-SVR在假设条件(1)~(3)下是Lε-风险一致的。已知Karush-Kuhn-Tucker (KKT)最优化条件是求解ε-SVR优化问题最优解的充分必要条件[18], 且正则化路径算法是遵循KKT条件的, 所以对于任意给定的正则化参数λ, ε-SVR优化问题的最优解必出现在正则化路径上, 由此命题得证。
下面证明基于正则化路径的ε-SVR贝叶斯模型组合的Lε-风险一致性。
定理1 假设(1)~(3), 若存在序列(λn)使得λn→0且nλn2 →∞, 则基于正则化路径的ε-SVR贝叶斯模型组合是Lε-风险一致的, 即
limn→∞RLε,P[ˉg]→PR∗Lε,P。 |
证明 损失函数Lε是Lipschitz连续的, 其Lipschitz常数|Lε|1=1, 结合假设(3), 对于任意两个模型f, f′∈
RLε,P(f)−RLε,P(f′)|≤∫|Lε(y,f(x))−Lε(y,f′(x))|dP(x,y)≤∫|Lε(y,f(x))−Lε(y,f′(x))|dP(x,y)≤|Lε|1‖f−f′‖∞≤‖f−f′‖∞≤ˉκ‖f−f′‖Hκ。 | (6) |
由f, f′的任意性, 现讨论组合模型g的期望风险与正则化期望风险最小化模型fP, λ的期望风险之间的关系。将g和fP, λ分别替换f和f′, 由式(6)可以得到
|RLε,P(ˉg)−RLε,P(fP,λ)|≤ˉκ‖ˉg−fP,λ‖Hκ=ˉκ‖m∑j=1wjfT,λj−fP,λ‖Hκ=ˉκ‖m∑j=1wjfT,λj−m∑j=1wjfP,λ‖Hκ=ˉκ‖m∑j=1wj(fT,λj−fP,λ)‖Hκ=ˉκ‖w1(fT,λ1−fP,λ)+…+wm(fT,λm−fP,λ)‖Hκ≤ˉκ(w1‖fT,λ1−fP,λ‖Hκ+…+wm‖fT,λm−fP,λ‖Hκ)=ˉκm∑j=1wj‖fT,λj−fP,λ‖Hκ, |
再结合凸函数次微分定义、性质[22]及|Lε|1=1, 可得存在ε > 0使得
|RLε,P(ˉg)−RLε,P(fP,λ)|≤ˉκm∑j=1wjε=ˉκε, |
于是可以得到
|RLε,P(ˉg)−R∗Lε,P|≤|RLε,P(ˉg)−RLε,P(fP,λ)|+|RLε,P(fP,λ)−R∗Lε,P|≤2ˉκε。 |
再结合引理1可得本定理结论。
由定理1的证明过程可以看出, 关键是考查组合模型g的期望风险能否依概率收敛到最优风险, 这虽然在实践中无法验证, 但是对模型组合的统计特性进行了数学证明, 为模型组合方法奠定理论基础。
2 三步式贝叶斯组合本节设计并实现正则化路径上基于输入K-近邻的三步式ε-SVR贝叶斯组合。
2.1 初始模型集由ε-SVR正则化路径可得到完全模型集
Minit={fλ1,…,fλl}, |
式中l为正则化路径上拐点个数。初始模型集
BIC (Bayesian information criterion)是一种常用的模型选择准则, BIC模型的一般形式为
BIC=−2⋅loglik+log(n)n⋅df, |
其中:log lik为模型的对数似然; df为模型自由度。对于正则化路径上的ε-SVR模型, 本文采用
−2⋅loglik=1nσ2n∑i=1(yi−fλ(xi))2, |
近似计算模型的对数似然, 方差σ2通过低偏差模型的均方差获得。对模型自由度的估计, 本研究沿用Gunter Lacey和Zhu Ji提出的无偏估计方法[18]。给定输入x, 以分布y~(μ(x), σ2)生成输出y, 其中μ为真实均值, σ2为方差。定义SVR模型f的自由度
df(f)=n∑i=1cov(f(xi),yi)/σ2, |
该值的无偏估计为
ε-SVR的正则化路径上对于某个固定的正则化参数λ :
df(f)≡n∑i=1∂f(xi)∂yi=|ER|+|EL|, |
其中
BIC(fλ)=‖y−fλ‖2nσ2+log(n)ndf(fλ), |
式中: fλ=(fλ(x1), …, fλ(xn))T, y=(y1, …, yn)T。
模型的BIC值越小, 模型在误差和模型参数的要求达到越佳, 模型越好, 因此可以用平均BIC的方法从初始模型集中将BIC值较大的模型剔除。对于初始模型集
BaBIC=1ll∑j=1BIC(fλj). |
考查初始模型集
算法1平均BIC算法 |
Input: Output: for j∈{1, …, k}do Compute BIC (fλj) end for j∈{1, …, l} do if BIC (fλj) > BaBIC then end end Return |
对于SVR来说, 学习的目标是通过在训练集上学习找到一个模型f, 使其具有良好的泛化性, 应用平均BIC准则已得到候选模型集。为了能对新输入xnew有更好预测, 需要在已有候选模型集基础上, 根据xnew选择多个模型, 实现组合预测。由此, 本研究提出基于输入K-近邻的SVR贝叶斯模型组合算法SVRBMCKNN。
模型组合的泛化性可通过对新输入xnew的预测来衡量。由于数据的分布未知, 因此无法计算组合误差的期望。本研究中应用K-近邻方法来估计对新输入xnew的预测误差, 用欧式距离度量输入之间的距离, 即x和x′之间的距离为
d(x,x′)=‖x−x′‖2。 |
训练样本集中, 新输入xnew的K个近邻输入记作xK={xk1, …, xkk}, k1, …, kk∈[1, n]。
首先, 计算候选模型集
eK(f)=1KK∑j=1|ykj−f(xkj)|εf∈MaBIC. |
然后, 对
建立最终组合模型集过程中, 每加入一个模型就要计算组合模型的平均误差, 直到误差不再下降, 选择过程结束。组合模型的平均误差
eK(ˉg)=1KK∑j=1|ykj−ˉg(xkj)|ε。 |
由于整个选择过程是动态变化的, 按照本研究提出的模型后验概率的计算方法(式(2)), 一旦组合模型集中有模型加入, 就需要更新组合模型集中所有的模型的后验概率。
基于输入K-近邻方法的SVR贝叶斯模型组合实现过程如算法2所示。确定组合模型集过程中包括在训练样本集中搜索新输入的K-近邻和对所有模型的预测误差排序, 由此该过程的时间复杂度为O(cnlog (cn))。另外, 模型后验概率估计的时间复杂度为O(n), 则计算初始模型集中所有模型后验概率的时间复杂度为O(cn2)。综上所述, 基于输入的K-近邻的三步式贝叶斯模型组合的时间复杂度为O(cn2)。
由此, 对新输入xnew的组合预测为
ˆynew=ˉg(xnew)=∑f∈Mcomf(xnew)Pr(f|T). |
算法2 SVRBMCKNN算法 |
Input: T={(x1, y1), …, (xn, yn)}, xnew Output: Find the K-nearest neighbor set xK of xnew in T Compute average prediction error for model set TK while fm=f∈ Update Compute g(xk1), …, (xkk) if eK(g) is greater than last time do break end end Return: |
本节设计试验测试正则化路径上ε-SVR贝叶斯组合的预测性能和算法运行效率。本研究试验采用的普适核为高斯核
κ(x,x′)=exp(−‖x−x′‖2/2σ2). |
试验中, 核参数σ和不敏感参数ε在每个数据集上的最优组合取值由3折交叉验证确定, 如表 1所示。
![]() |
表 1 试验用标准数据集 Table 1 Summary of the Datasets |
本研究选用University of California Irvine (UCI)机器学习数据库中的5个标准数据集作为试验中的数据集。每组试验中, 从数据集abalone的4 177个样本中随机选择1 000个样本组成试验数据; 从数据集cpusmall的8 192个样本中随机选择1 000个样本组成试验数据; 从数据集space-ga的3 107个样本中随机选择1 000个样本组成试验数据。各数据集的试验样本规模及特征维数如表 1所示。每组试验中, 从每个试验数据集中随机抽取80%作为训练样本, 20%作为测试样本。每个算法在各数据集上重复实验50次并统计平均测试结果。
3.1 性能测试本研究以测试集上的预测误差作为预测性能评价标准, 测试误差定义
PredE:=1mm∑j=1(yj−ˆg(xj))2, |
式中:m为测试集规模; ĝ为组合模型或单模型。
首先, 选用3-折交叉验证法和BIC准则分别从ε-SVR正则化路径选择最优模型, 贝叶斯模型组合分别应用1-近邻、3-近邻和5-近邻3种方式实现SVRBMCKNN算法, 然后对比上述5种方法的预测性能。5种方法测试误差的平均值及标准差统计结果如表 2所示, 其中, PredCV为应用3-折交叉验证选择的最优模型的预测误差, PredBIC为基于BIC准则选择的最优模型的预测误差, Pred1-com为基于1-近邻方法的组合模型集
![]() |
表 2 SVRBMCKNN和两种模型选择方法测试误差的比较 Table 2 Comparison of prediction error for SVRBMCKNN and two model selection methods |
从表 2中可以看出, 正则化路径上贝叶斯组合方法的预测性能比单模型的预测性能好, 且具有较好的稳定性; 3种近邻方法的模型组合中, 1-近邻方法的预测误差的平均值较低, 标准差较高, 5-近邻方法的预测误差的平均值较高, 标准差较低, 说明基于5-近邻方法的模型组合的稳定性较高。
然后, 设计试验对比SVRBMCSNN模型组合与Bagging模型组合的预测性能。该试验中Bagging组合算法各参数采用默认值。预测误差的平均值及标准差的统计结果分别如表 3所示, 其中PredBag为Bagging模型组合的预测误差。
![]() |
表 3 SVRBMCKNN和Bagging测试误差的比较 Table 3 Comparison of Prediction Error for SVRBMCKNN and Bagging |
从表 3中可以看出, 在数据集housing和mpg上Bagging的预测误差平均值较低, 而在另外3个数据集上, 1-近邻、3-近邻和5-近邻的SVRBMCSNN模型组合的预测误差平均值较低。所有数据集上SVRBMCSNN模型组合预测误差的标准差都比Bagging的要低, 说明SVRBMCSNN模型组合的稳定性要高。
3.2 运行效率首先, 设计试验对比正则路径上基于输入K-近邻ε -SVR贝叶斯组合方法与3折交叉验证模型选择方法的运行时间, 包括训练时间和测试时间。试验统计结果如表 4所示, 其中, t3CV为3折交叉验证模型选择方法的运行时间, tcom为ε-SVR贝叶斯组合方法的运行时间。从表 4中可以看出, 组合方法的运行时间较短。
![]() |
表 4 模型选择与模型组合运行时间 Table 4 Running time of model selection andmodel combination |
综合以上试验结果可以看出, 正则化路径上基于输入K-近邻的模型组合具有较好的预测性能及较高计算效率。
4 结语SVR正则化路径的分段线性性质为选择基模型提供了便利。本研究提出的正则化路径上基于输入K-近邻的三步式ε-SVR模型组合, 以简单有效的方法实现了基模型的产生、候选模型集的构建以及组合预测。通过对输入空间及假设空间作基本假设, 证明了正则化路径上ε -SVR组合模型的Lε-风险可收敛到最优Lε-风险。ε -SVR模型组合一致性的证明发展了SVR模型组合的理论研究。模型集构造过程中, 首先根据ε-SVR正则化路径的分段线性性质, 选择正则化路径上所有拐点处模型构成初始模型集, 然后应用平均BIC准则确定候选模型。测试阶段, SVRBMCKNN模型组合算法应用K-近邻方法确定输入敏感的最终组合模型集, 并实现贝叶斯组合预测。标准数据集上的试验验证了正则化路径上基于输入K-近邻的三步式ε-SVR模型组合方法的稳定性和计算效率。
[1] | BURGES C J. A tutorial on support vector machines for pattern recognition[J]. Data mining and knowledge discovery, 1998, 2 (2) : 121-167 DOI:10.1023/A:1009715923555 |
[2] | 邓乃扬, 田英杰. 数据挖掘中的新方法:支持向量机[M]. 北京: 科学出版社, 2004 . |
[3] | ANTHONY M, HOLDEN S B. Cross-validation for binary classification by real-valued functions: theoretical analysis[C]//Proceedings of the 11th Annual Conference on Computational Learning Theory. Berlin, Germany: Springer, 1998: 218-229. |
[4] | CHAPELLE O, VAPNIK V. Model selection for support vector machines[C]//Advances in Neural Information Processing Systems. Cambridge, USA: MIT Press, 1999. |
[5] | VAPNIK V, CHAPELLE O. Bounds on error expectation for support vector machines[J]. Neural Computation, 2000, 12 (9) : 2013-2036 DOI:10.1162/089976600300015042 |
[6] | GOLD C, SOLLICH P. Model selection for support vector machine classification[J]. Neurocomputing, 2003, 55 (1) : 221-249 |
[7] | KEERTHI S S. Efficient tuning of SVM hyperparameters using radius/margin bound and iterative algorithms[J]. IEEE Transactions on Neural Networks, 2002, 13 (5) : 1225-1229 DOI:10.1109/TNN.2002.1031955 |
[8] |
刘向东, 骆斌, 陈兆乾. 支持向量机最优模型选择的研究[J].
计算机研究与发展, 2005, 42 (4) : 576-581 LIU Xiangdong, LUO Bin, CHEN Zhaoqian. Optimal model selection for support vector machine[J]. Journal of Computer Research and Development, 2005, 42 (4) : 576-581 DOI:10.1360/crad20050407 |
[9] |
汪廷华.支持向量机模型选择研究[D].北京:北京交通大学, 2010.
WANG Tinghua. Reseach on model selection for support vector machine[D].Beijing: Beijing Jiaotong University, 2010. http://cn.bing.com/academic/profile?id=1767c6ba11acb5d85b075bb8668d4080&encoded=0&v=paper_preview&mkt=zh-cn |
[10] |
丁立中, 廖士中. 基于正则化路径的支持向量机近似模型选择[J].
计算机研究与发展, 2012, 49 (6) : 1248-1255 DING Lizhong, LIAO Shizhong. Approximate model selection on regularization path for support vector machines[J]. Journal of Computer Research and Development, 2012, 49 (6) : 1248-1255 |
[11] | BREIMAN L. Bagging predictors[J]. Machine Learning, 1996, 24 (2) : 123-140 |
[12] | VALENTINI G, MUSELLI M, RUFFINO F. Bagged ensembles of support vector machines for gene expression data analysis[C]//Proceedings of the Int Joint Conference on Neural Networks. Piscataway, USA: IEEE Computer Society, 2003: 1844-1849. |
[13] | SUN B Y, HUANG D S. Least squares support vector machine ensemble[C]//Proceedings of the Int Joint Confence on Neural Networks. Piscataway, USA: IEEE Computer Society, 2004:2013-2016. |
[14] | KIM H C, PANG S, JE H M. Constructing support vector machine ensemble[J]. Pattern Recognition, 2003, 36 (12) : 2757-2767 DOI:10.1016/S0031-3203(03)00175-4 |
[15] | KIM H C, PANG S, JE H M. Pattern classification using support vector machine ensemble[C]//Proceedings of the 16th Int Confence on Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 2002:160-163. |
[16] | LI X, WANG L, SUNG E. AdaBoost with SVM-based component classifiers[J]. Engineering Applications of Artificial Intelligence, 2008, 21 (5) : 785-795 DOI:10.1016/j.engappai.2007.07.001 |
[17] |
王梅, 廖士中. 正则化路径上三步式SVM贝叶斯组合[J].
计算机研究与发展, 2013, 50 (9) : 1855-1864 WANG Mei, LIAO Shizhong. Three-step Bayesian combination of SVM on regularization path[J]. Journal of Computer Research and Development, 2013, 50 (9) : 1855-1864 |
[18] | GUNTER Lacey, ZHU Ji. Efficient computation and model selection for the support vector regression[J]. Neural Computation, 2007, 19 (6) : 1633-1655 DOI:10.1162/neco.2007.19.6.1633 |
[19] |
廖士中, 王梅, 赵志辉. 正定矩阵支持向量机正则化路径算法[J].
计算机研究与发展, 2013, 50 (11) : 2253-2261 LIAO Shizhong, WANG Mei, ZHAO Zhihui. Regularization path algorithm of SVM via positive definite matrix[J]. Journal of Computer Research and Development, 2013, 50 (11) : 2253-2261 |
[20] | WANG Mei, LIAO Shizhong. Model combination for support vector regression via regularization path[C]//Proceedings of 12th Pacific Rim International Conference on Artificial Intelligence (PRICAI 2012). Beijing, China:Science Press, 2012:649-660. |
[21] | STEINWART I. On the influence of the kernel on the consistency of support vector machines[J]. The Journal of Machine Learning Research, 2002 (2) : 67-93 |
[22] | CHRISTMANN Andreas, STEINWART Ingo. Consistency and robustness of kernel-based regression in convex risk minimization[J]. Bernoulli, 2007, 13 (3) : 799-819 DOI:10.3150/07-BEJ5102 |