在同学们的热烈反响中,中山大学AI技术俱乐部本学期第三次课程培训圆满结束!
课程一共分为会员积分公示、课程讲解和会员反馈三个部分。培训课程由中山大学人机物智能融合实验室的研究生同时也担任俱乐部主席职务的周启贤师兄主讲,讲课内容为决策树算法、梯度下降算法。课程之后俱乐部应用部也邀请实验室的翟升富师兄为大家讲解了人体骨骼关键点检测的相关方法。
培训一开始主持人陈硕向大家展示了经过两次课程之后会员的积分情况,并鼓励大家积极提问和回答问题,一起交流共同进步,既能提高自己的能力也能通过加分来赢得俱乐部的精美奖品,一举两得!
简短的公示结束后,便是讲课的环节,今天的讲课内容分为决策树算法和梯度下降两个大部分。第一部分决策树算法,师兄从一个相亲的现实例子引出决策树算法,十分生动形象。
决策树的实际例子
接下来介绍了决策树的基本原理,通过讲解信息论领域中经典的信息熵(information entropy)的概念引入最佳决策树分类的判断标准,之后讲解了信息增益(information gain),基尼系数(Gini index),方差(Variance)一共三个常常采用的划分属性的依据。除了理论讲解,师兄也使用了一些实际的例子和数据展示了各个指标的计算过程,帮助大家更好的理解了这些概念的含义和运用方法。
限于时间原因,师兄无法对决策树算法中更多的发展和细节以及更深入的内容进行讲解,但是师兄还是给大家提示了决策树更为深入应该学习的内容例如集成学习、随机森林算法等,鼓励大家通过自学和提问来更好的掌握这些更深入的内容!
启贤师兄在讲机器学习基本过程
之后师兄讲解了在凸优化、机器学习中常用的梯度下降算法。师兄通过一个比较简单的线性回归拟合曲线的例子,引入了损失函数(cost function)的概念,指出梯度下降的目的就是找到使损失函数最小化时的参数值。之后讲解了梯度下降的计算公式,并让在场同学动手推导了公式。接下来又更为详细的讲解了梯度下降的过程,讲到了学习率的选取原则,代码实现时的注意事项等。
在讲完两个变量的梯度下降后,师兄也讲解了多变量的梯度下降算法的原理和过程。师兄最后给大家留了一个小作业,使用梯度下降算法拟合一部分数据,有能力的同学可以试着使用并行的算法来提高效率,期待大家的表现噢!
课程内容结束后,主持人号召大家填写了一份反馈问卷,旨在收集会员对于课程的速度、进度、容量大小等的看法和对于俱乐部提供内容的建议和意见。俱乐部会根据会员们的反馈及时调整讲课的一些细节,在此感谢会员们的配合和支持!
最后再次感谢会员们对俱乐部的课程与比赛活动的支持,下次培训课程不见不散!也祝参加比赛的同学进展顺利收获满满!!