“可能大家都清楚em算法是一种迭代优化策略,分为两步,一者为期望步e步,一者为极大步m步,通过这两步的不断迭代以此得出最优解,所以被称为期望最大化算法em,其实在机器学习的强化学习中,类似的迭代算法非常多,诸如蒙特卡罗同步和异步策略,又如qlearning算法……”
台下的同学们其实是有些懵逼的,因为台上这位大老的思路跳跃得实在是有些快,从em算法跳到机器学习的一些相似算法剖析了一通,然后又从数学角度浅浅理解了下,最后又跳回统计学这边。
部分算是学霸的勉强还能跟上,剩下的那就全是一脸“我是谁,我在哪,我在干什么”这哲学三问的脸。
学霸从谈恋爱开始提示您:看后求收藏(百发小说网http://www.baifabohui.com),接着再看更方便。