1118 day4
1.简述GBDT原u理。
首先根据现有的数据训练树一棵树,然后去计算真实值和预测值的差值,也就是残差,然后下一棵树去拟合该残差,重复直至残差为0。
所有弱分类器的结果相加等于预测值,也就是说,每一个分类器拟合的是残差;
2.GBDT常用损失函数有哪些?
MAE,MSE,huber损失
3.GBDT如何用于分类?
将分类问题转化成logistic回归问题即可
4.为什么GBDT不适合使用高维稀疏特征?
难以进行特征划分
5.GBDT算法的优缺点?
优点:
并行预测带来的速度提升
不需要进行特殊的数据预处理。可以自动发现特征之间的高阶关系
在稠密数据集上,泛化能力和表达能力都很好
缺点:
在稀疏数据集上表现不如svm或神经网络
训练过程串行,只能在决策树内部采用局部并行的手段提高训练速度
对异常值过于敏感,所以一般回归类的损失函数会用绝对损失或者huber损失函数来代替平方损失函数
正解:
还没有评论,来说两句吧...