在支持向量机训练好后,我们可以抛弃非支持向量的样本点,仍然可以对新样本进行分类。
查看答案
在EM算法的E步中,通过迭代地增加()来完成优化的过程。
A. 似然函数的上界
B. 似然函数
C. 似然函数的下界
D. 先验分布
线性支持向量机通过软间隔最大化将线性可分问题扩展到线性不可分问题?
主成分分析(PCA)直接通过一个线性变换,将原始空间中的样本投影到新的低维空间中。PCA采用一组新的基来表示样本点,其中每一个基向量都是原来基向量的()组合,通过使用尽可能少的新基向量来表出样本,从而达到降维的目的。
A. 非线性
B. 线性
C. 指数
D. 核化
只要给予网络足够数量的隐藏单元,一个前馈神经网络可以以任意的精度来近似任何从一个有限维空间到另一个有限维空间的 Borel 可测函数。