2017年10月15日晚,中山大学AI科技俱乐部举办了2017年秋季学期第二次课程。本次课程是由钟俊勋师兄带来的《模型选择和评估&线性模型》,非常感谢钟俊勋师兄的精心准备和干货满满的讲解。
俱乐部副主席王福宇主持了本次课程,课程伊始,主持人进行了上次课程的积分公示,并为会员公布了奖品设置情况。
主持人开场
随后,便是课程主体内容,钟俊勋师兄上台开始为大家讲解课程。课程内容分为两部分:模型选择和线性模型。
钟俊勋师兄开讲
第一部分——模型选择
师兄从基本概念入手,讲了经验误差和泛化误差两个子概念,随后还提出了“经验误差越小则泛化误差越小吗?”的思考题。大家踊跃回答,轻而易举拿下了这个问题。
随后直入核心,展开讲了模型选择的三个步骤,评估方法,性能度量和比较检验。对于评估方法,师兄介绍了留出法、交叉验证法、留一法与自助法;
对于性能度量,师兄讲解了回归任务和分类任务。其中详细讲了分类任务,介绍了错误率、精度、查准率、查全率、P-R曲线、F1的定义与运算。对于比较检验,师兄则从偏差-方差分解、偏差-方差窘境、欠拟合、过拟合等方面展开讲解。
第二部分——线性模型
这一部分师兄从线性回归和线性分类两大方面讲解,在线性回归方面,讲了一元线性回归,多元线性回归和广义线性回归。在线性分类方面,讲了二分类和多分类。其中详细讲了二分类中的对数几率回归和线性判别分析,简要介绍了多分类中的欠采样,过采样和阈值移动。
课程末,师兄做了对此次课程主要内容的小结,并给出了参考资料:
Zhihua Zhou的《机器学习》
机器学习http://blog.csdn.net/hekkoo/article/details/52913916
机器学习笔记(三)线性模型http://blog.csdn.net/fjssharpsword/article/details/54580552
课程结束后,有疑问的同学都围着师兄发问,师兄还是很耐心的一一解答呢。再次感谢钟俊勋师兄的精彩讲解和耐心解答。