第17章 请叫我温博士(第2/2页)自2008的重来盛年

重要通知:域名变更为m.bxuu.net请收藏

下,我现在正在看,碰到一个问题。

    温晓光一看,回道:那你吧。

    葛:就是最优化的部分,江理对数部分作了一点要求,这和别的校都不一样,其实我们科的时候都没有开过这门课,所以看起来很费劲。

    温:嗯,不必害怕,有要求一是未来不论是机器习,数据挖掘还是深度习的神经络,即使你运用一些简单模型,最优化的理论与算法都有比较广泛的应用,另外一个是出题的那个老师擅长数也重视数,所以才有这么个要求,不过它对这面的要求也只限于了解,题目都很简单。

    葛瑶儿看这一段话人都犯傻,等会儿……

    神经络?

    数据挖掘?

    请打中,谢谢。

    葛:可是我连书都看不懂啊,我至今不知道最优化是什么。

    对于花钱的人,温晓光耐心足够:这么吧。大应该开设有数模型这门课,模型就像人习思考模式,在每次习过程中,人知道自己怎么,哪里,错了还可以调整,但模型和计算机没这么聪明,

    而最优化就是告诉模型应该什么、怎么的工具。在数上,模型习往往是一个映射函数,也就是模型中的参数,这个参数的好坏通过答案体现,如果不够好,最优化就可以帮助调整,

    这么明白了吗?

    葛瑶儿勉勉强强能看懂一些,毕竟的那么简单,再看不懂就是智障了。

    她又问:那有的地提到的凸优化又是啥啊?

    温:凸优化是最优化的一个子领域,简单来就是定义在凸集中的凸函数的最化问题,凸优化的应用价值比较高,所以研究的很多。而凸问题的局部最优解就是局最优解,再加上凸优化理论中的Lagrange对偶,提供了凸优化算法最优性的保证。

    另外一些非凸问题通过一定手段可以等价化为凸问题或者用凸问题近似、逼近得到边界,比如深度习,其中关键的Bak  Prpagatin算法,质就是凸优化算法中的梯度下降法,即使问题极度非凸,梯度下降还是有很好的表现。

    明白了吗?

    葛:凸━┳━━┳━凸,原来你真的是博士。

    温晓光:当然,你还怀疑这一点?

    脸不红心不跳。

    聊天到此结束,温晓光去打印,然后发货。

    葛瑶儿在晃动实验室邻座的林贝:“贝贝,太好了,我找一个特别牛逼的人!”

    林贝不明所以的瞎乐:“什么啊?什么牛逼的人?!”

    葛瑶儿也没什么,就是拉她过来把电脑上的聊天记录拉出来,“你看。”

    林贝:“卧槽!”