【组队学习】【25期】集成学习(下)
集成学习(下)
开源内容:
https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning
基本信息
贡献人员:李祖贤、薛传雨、赵可、杨毅远、陈琰钰、李嘉骐 学习周期:15天 学习形式:理论学习 + 练习 人群定位:已完成集成学习(上)、(中)课程内容的学习,具备《高等数学》、《线性代数》、《概率论与数理统计》基础,了解机器学习经典模型的理论知识,能够调用相应模型库解决的学习者。 每个任务完成大概所需时间:3-5h 任务路线:掌握基本的模型集成方法和常见组合集成模型的理论及模型调用调参 难度系数:中
学习目标
之前大家系统学习了机器学习的经典的算法、bagging/boosting等基本集成方法的思路、理论推导和库文件调用。本次我们将学习使用多个模型的训练结果进行最终的融合。之前的学习中我们一直使用模型库自带的小型数据来进行练习,本次在模型训练和融合全部完成后,我们还将使用两个较大的真实数据来进行完整的调参融合练习。我们从数据预处理开始,到子分类器的训练,再到集成学习,一步一步深入浅出,手把手带领大家直观感受集成学习。
开营视频
内容介绍
组队学习之余,来读读组队学习中发生的故事!
钱振:助教的那些事 红星:队长的那些事 红星:学习者的那些事 姚行志:助教的那些事 姚昱君:助教的那些事 陈长沙:助教的那些事 王彦淳:助教的那些事 肖明远:队长的那些事 王岳泽:学习者的那些事 范宸尧:学习者的那些事 罗如意:课程设计者的那些事
希望参与活动的学习者,来读读组队学习的注意事项!
赞 (0)