Machine Learning在线公开课第 4 期:2.1日晚邹博讲EM、GMM结束,PPT帖内下载


前三期,我们在线上分别给大家讲了决策树与随机森林、计算广告、logistic回归,详见:http://ask.julyedu.com/article/3

本周日2.1日晚7点半-9点半,公开课第 4 期:讲EM、GMM结束,被称赞为:“最清楚的一次GMM”,“老师讲的太好,太多人想听”等等。
宣传背景.png

本次公开课的PPT 点击下载:

PS:更多精彩在后头,2015年3月机器学习在线精品课程,提前报名通知:http://ask.julyedu.com/question/157
已邀请:

July - 抠细节抠体验,不妥协不将就。

赞同来自: gtrenching 堂仔


公开课第 4 期:讲EM、GMM结束,被誉为:“最清楚的一次GMM”。
PPT 请点击上面的文字链接下载。

部分听众的听课心得(感谢各位):
莳萝-eda-to 京 2015/2/2 1:18:13
em算法也听了很多遍了 各个老师的各种理论推导 今天讲的还是很有启发性 讓我收益匪浅的 只想说 谢谢

小六-ML-北京 2015/2/2 8:06:27
个人感觉,讲得已经很不错了(我也在实验室内部讲过类似的ppt,深感让大家明白之不易,深入浅出更为不易)。就拿昨晚的PPT(EM、GMM)来说,为了给大家讲清楚,好理解,老师从大家最熟悉的伯努利、高斯分布的最大似然估计开始,让大家在理论和直观感受上有很好的连接;尤其是高斯分布例子的最大似然估计,是为了GMM铺垫的;而这种直观感觉,就直接用在GMM上,通过EM交替迭代,直接写出估计表达式——这对编程很有用的;
其次,重点分析了EM算法,这在求解带有隐变量或缺失数据下的模型非常重要的一种算法思想,有专门的书来介绍,大牛翟成祥老师都有专门讲过EM文稿,然后分享了他的宝贵经验——这种交替迭代的思想在很多场合都用,比如说优化理论里面的坐标轮换迭代、ADMM(一种分布式迭代算法)、SVM对偶问题的优化求解也是轮换求解、MCMC(随机轮换变量采样)等等;
最后,为了使前面直观的感受有理论支撑,在数学上更加严密,又通过EM算法框架给大家推导了GMM中参数的估计表达式。
另外,从老师回答大家的问题上,我觉得他的“内功”是相当深厚的,这一点可以从他分享的经验(上面也零星提到过一点)、偶尔冒出来函数变元(泛函观点)、变分、以及之前看他的LDA中ppt的例子(汪峰的歌为例分析主题模型)等等体现,管中窥豹吧。还是给赞!(个人之言,仅供参考)

小潘_stat_北京 2015/2/2 8:19:55
宝贵的学习经验贴啊,收了~
老师讲得很好了,最重要的一个是深入浅出,(原本就不算入门级的理论,讲的0基础的人能懂很难得了,不然您来?)还有一个是给人启发。对真正想了解和用的人来说是宝贵的交流机会。想提升格调的可以自己翻看EM算法的收敛性证明,Louis方法以及更为深入的性质和应用~

要回复问题请先登录注册