真让王建成搞出来的话,前途不可估量。
哪怕只是开个头,给后人打个基础,也不失为一次好的尝试。
想到这里,陈念开口说道:
“我有一个想法,你可以试一试。”
“现在论文库上应该已经出现了一些关于关于逐层初始化的机器学习训练模型,基于这个模型,还有更多的潜力可以深挖。”
“以你的能力,能在这个年龄运用ensemblelearning,继续往深入探索,应该也不会太难。”
“你可以先去看看国际上最先进的经验,试着用到自己的实操里面来。”
“其中可以重点关注一下svm方法,如果有困难,可以找统计学专业的老师帮忙。”
说到这里,陈念停顿了一下。
他突然想到,现在这个时间点,对方应该是很难找到比较有用的材料的。
但是,如果让自己去把这部分内容解析出来给他.
擦,6.9个源点消耗。
那还是拉倒吧。
于是,他仔细回忆了片刻,继续说道:
“有几个关键词,应该是你的研究过程中用得上的。”
“核函数展开,线性回归函数,递归算了,我把大致的原理图画出来给你看看。”
陈念抄起筷子,沾了汤汁在桌面上开始写写画画。
他画的是当年游戏ai深度训练最常用的卷积神经网络的基本结构图。
实际上,整个卷积神经网络的原理并不复杂,最基础的部分,哪怕是完全没有编程基础的普通人,也能在半天之内懂个七七八八。
真正困难的,是怎么用复杂的程序去实现它。
这不是陈念擅长的部分,在上一世,他只是出于兴趣学了个皮毛。
“喏,这是卷积神经网络的滤波过程图,这是c1层,作用是产生特征映射图,随后,特征再进行求和加权.”
汤汁在桌面上逐渐形成了纵横交错的图画,王建成从最开始,便已经全情投入地在听,所以哪怕陈念只讲了一遍,他也已经把全部内容记在了心里。
等陈念放下筷子时,他看陈念的眼神已经完全变了。
本来以为,这就是一个普通的、比较热心的、并且有一点小成绩的学长而已。
但现在看来.
这他么什么怪物啊!
嘴上说着不懂编程,反手就是一个显然要比随机森林还要牛逼的算法甩了出来。
虽然这算法的确达不到立刻可用的水平吧,但是,他的思路绝对是顶级的!
你还说你不会武功!?
王建成小心翼翼地用纸巾擦掉这副图上多余的部分,一时间不知道该说些什么。
而一旁路过的学生好奇地看着这一幕,脸上露出好笑的神情。 他大概觉得这两人学习学疯了,推理都推到餐桌上了。
但他不知道的是,餐桌上的这一幅图,也许在多年之后,将会成为一段脍炙人口的故事
告别王建成之后,陈念自己溜达溜达地回到了住处。
实际上,向他透露卷积神经网络的信息算不上什么太超前的技术泄露,因为早在2002年,卷积神经网络的基本原理就已经诞生。
到2006年爆发期为止,这个过程里学者们的大部分工作,其实就是对基本原理的补充和完善罢了。
自己刚才做的,也是把已经有的东西给王建成传达了一遍,至于真正怎么应用,还是需要他去探索的。
真要说起来,这样的动作,其实就相当于种下了一颗种子罢了。
按照王建成的天赋,哪怕这颗种子不是被自己种下,也会在某一次的学习、某一次的研讨上被其他人、其他事情种下。
所以,综合来说,风险很小,换回来的收益却很大。
不过
为啥系统没反应啊!
王建成啊王建成,你小子到底行不行?
别人都是我一提马上就突破了,你还得消化消化是吧?
希望你不要让我失望,要是能再给个惊喜,那就更好了
星火提示您:看后求收藏(百发小说网http://www.baifabohui.com),接着再看更方便。