终于看到小中能为真爱疯狂了

ert0000

本站元老
VIP
注册
2005-12-07
消息
21,776
荣誉分数
5,880
声望点数
373
这位CS博士,(假如没有任何抄袭),能写出2840页的论文,老掐得给他点赞。按理说这类CS方面的博士,如果就是为了未来毕业找个大厂的6位数收入的工作,犯不着整出2840页出来,这种事情,没有内心的真爱是做不到的。

各位想想,你现在做的工作还是学业,有多少是出自内心的真实的喜欢?有真爱么?

如果老中,小中有更多的人像这样,INNOVATION创新根本不是梦。




华人学生写出2840页博士论文:目录31页感谢名单20页​

文章来源: HK01 于 2021-01-26 18:23:22 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
(被阅读 21955 次)
A- A A+

一篇论文的篇幅竟然多达数千页,比很多教材都要厚,这简直无法想象。不过,学术界的"能人异士"层出不穷,德州大学奥斯汀分校的CS博士生Zhao Song就做到了。

b28223144033BLIOMvYJ.jpg


这是一篇2019年8月提交的博士论文,总篇幅达到了2840页,其中目录就占了31页。此外在致谢部分,论文作者还以整整20页的篇幅感谢了合作者、提供宝贵意见以及读博期间帮助过他的人



b28223144021LDeU6Bbf.jpg


b28223144049gNTud019.jpg


b28223144067vIx1ox67.jpg


b28223144379WA4ccf79.jpg


不过,作者在论文第1页做了免责声明,表示:”这篇论文不符合德州大学奥斯汀分校当前的写作格式指南,论文仅供参考使用。”下面让我们简单了解下这篇巨长的博士论文到底讲了些什么。

矩阵(matrix)在很多理论计算器科学和机器学习问题中发挥至关重要的作用。在这篇博士论文中,作者旨在提供对矩阵的更好理解,并且文中的很多见解对古老的、已经得到充分研究的算法问题带来了改进。具体来讲,作者从三个层面对计算器科学和机器学习领域的矩阵展开了研究。

首先,他探究了矩阵在优化算法中的作用。作者研究了大量的矩阵优化问题,并针对线性规划、经验风险最小化、常微分方程和深度神经网络提供了新的求解方法和结果。其中,在线性规划优化问题中,作者提出了一种在当前矩阵乘法时间上运行的新算法,并表示gaisuan”解决了停滞了三十年之久的研究障碍”。此外,该算法可以泛化至多种多样的凸优化问题,即经验风险最小化问题。具体算法如下所示:

b28223144099QJPBALll.jpg


论文截图(utexas.edu)

然后,他探究了随机矩阵中的集中不等式问题。具体来讲,作者将大量的切尔诺夫(Chernoff)类型的标量集中不等式和斯宾塞(Spencer)类型的差异定理泛化到矩阵中。

标量随机变量集中的切尔诺夫边界是随机算法分析中的基本工具。过去十年,切尔诺夫边界的矩阵泛化得到广泛应用,但这种泛化存在着一定的限制,并且是否可以消除这些限制的问题也悬而未决。通过提供大量更宽松独立性假设条件下新的矩阵切尔诺夫边界,作者对这一问题给出了肯定的答案。

以下为定理8.1.1:k均匀强瑞利分布(Strongly Rayleigh Distribution)的矩阵切尔诺夫边界。

b28223144120anOkDVve.jpg


论文截图(utexas.edu)

斯宾塞定理是差异理论中的一个著名结果,但如何将斯宾塞定理泛化至矩阵设置中这个重要问题却没有得到解决。作者在这方面取得了一些进展,并证明了在某些限制设置条件下斯宾塞定理可以实现矩阵泛化。并且,文中的结果可以泛化至著名的卡迪森-辛格猜想(Kadison-Singer conjecture)问题。

以下为定理1.3.4:卡迪森- 辛格问题。

b282231441391ipT4V16.jpg


论文截图(utexas.edu)

最后,他提出了一系列求解矩阵问题的新算法。新算法大致可以分为两类:矩阵分解问题和结构化重建问题。在矩阵分解算法上,针对各种低秩矩阵分解,作者提出了新的算法,包括一些新的固定参数可处理的算法;在结构化重建算法上,针对一些具有结构矩阵的重建任务,给出了新的算法。例如,作者重新考虑了L2/L2的压缩感知问题,提出了编码速度更快和列稀疏更小的算法。此外,作者还给出了针对傅里叶变换(Fourier transform)的快速算法等。

论文作者Zhao Song本科毕业于The Simons Institute for the Theory of Computing,获得了Computer Science学士学位,博士毕业于University of Texas at Austin Computer Science学系,由Eric Price教授指导。在进入得克萨斯大学之前,Zhao Song曾是哈佛大学的访问学者,也在IBM研究中心实习过。

Zhao Song的研究领域广泛,涉及机器学习、理论计算器科学和数学,如深度学习理论、对抗样本、强化学习、线性回归、矩阵/ 张量分解、线性规划、傅立叶变换等。论文被引用次数超过2000次:

b28223144157qkukOZ2n.jpg
 
论文的页数和对事业的真爱没什么必然联系。

估计他想用论文页数让他的导师知难而退,让他pass。老师一般不喜欢页数多的论文,特别是重复那些车轱辘话。。。
 
这位CS博士,(假如没有任何抄袭),能写出2840页的论文,老掐得给他点赞。按理说这类CS方面的博士,如果就是为了未来毕业找个大厂的6位数收入的工作,犯不着整出2840页出来,这种事情,没有内心的真爱是做不到的。

各位想想,你现在做的工作还是学业,有多少是出自内心的真实的喜欢?有真爱么?

如果老中,小中有更多的人像这样,INNOVATION创新根本不是梦。




华人学生写出2840页博士论文:目录31页感谢名单20页​

文章来源: HK01 于 2021-01-26 18:23:22 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
(被阅读 21955 次)
A- A A+

一篇论文的篇幅竟然多达数千页,比很多教材都要厚,这简直无法想象。不过,学术界的"能人异士"层出不穷,德州大学奥斯汀分校的CS博士生Zhao Song就做到了。

b28223144033BLIOMvYJ.jpg


这是一篇2019年8月提交的博士论文,总篇幅达到了2840页,其中目录就占了31页。此外在致谢部分,论文作者还以整整20页的篇幅感谢了合作者、提供宝贵意见以及读博期间帮助过他的人



b28223144021LDeU6Bbf.jpg


b28223144049gNTud019.jpg


b28223144067vIx1ox67.jpg


b28223144379WA4ccf79.jpg


不过,作者在论文第1页做了免责声明,表示:”这篇论文不符合德州大学奥斯汀分校当前的写作格式指南,论文仅供参考使用。”下面让我们简单了解下这篇巨长的博士论文到底讲了些什么。

矩阵(matrix)在很多理论计算器科学和机器学习问题中发挥至关重要的作用。在这篇博士论文中,作者旨在提供对矩阵的更好理解,并且文中的很多见解对古老的、已经得到充分研究的算法问题带来了改进。具体来讲,作者从三个层面对计算器科学和机器学习领域的矩阵展开了研究。

首先,他探究了矩阵在优化算法中的作用。作者研究了大量的矩阵优化问题,并针对线性规划、经验风险最小化、常微分方程和深度神经网络提供了新的求解方法和结果。其中,在线性规划优化问题中,作者提出了一种在当前矩阵乘法时间上运行的新算法,并表示gaisuan”解决了停滞了三十年之久的研究障碍”。此外,该算法可以泛化至多种多样的凸优化问题,即经验风险最小化问题。具体算法如下所示:

b28223144099QJPBALll.jpg


论文截图(utexas.edu)

然后,他探究了随机矩阵中的集中不等式问题。具体来讲,作者将大量的切尔诺夫(Chernoff)类型的标量集中不等式和斯宾塞(Spencer)类型的差异定理泛化到矩阵中。

标量随机变量集中的切尔诺夫边界是随机算法分析中的基本工具。过去十年,切尔诺夫边界的矩阵泛化得到广泛应用,但这种泛化存在着一定的限制,并且是否可以消除这些限制的问题也悬而未决。通过提供大量更宽松独立性假设条件下新的矩阵切尔诺夫边界,作者对这一问题给出了肯定的答案。

以下为定理8.1.1:k均匀强瑞利分布(Strongly Rayleigh Distribution)的矩阵切尔诺夫边界。

b28223144120anOkDVve.jpg


论文截图(utexas.edu)

斯宾塞定理是差异理论中的一个著名结果,但如何将斯宾塞定理泛化至矩阵设置中这个重要问题却没有得到解决。作者在这方面取得了一些进展,并证明了在某些限制设置条件下斯宾塞定理可以实现矩阵泛化。并且,文中的结果可以泛化至著名的卡迪森-辛格猜想(Kadison-Singer conjecture)问题。

以下为定理1.3.4:卡迪森- 辛格问题。

b282231441391ipT4V16.jpg


论文截图(utexas.edu)

最后,他提出了一系列求解矩阵问题的新算法。新算法大致可以分为两类:矩阵分解问题和结构化重建问题。在矩阵分解算法上,针对各种低秩矩阵分解,作者提出了新的算法,包括一些新的固定参数可处理的算法;在结构化重建算法上,针对一些具有结构矩阵的重建任务,给出了新的算法。例如,作者重新考虑了L2/L2的压缩感知问题,提出了编码速度更快和列稀疏更小的算法。此外,作者还给出了针对傅里叶变换(Fourier transform)的快速算法等。

论文作者Zhao Song本科毕业于The Simons Institute for the Theory of Computing,获得了Computer Science学士学位,博士毕业于University of Texas at Austin Computer Science学系,由Eric Price教授指导。在进入得克萨斯大学之前,Zhao Song曾是哈佛大学的访问学者,也在IBM研究中心实习过。

Zhao Song的研究领域广泛,涉及机器学习、理论计算器科学和数学,如深度学习理论、对抗样本、强化学习、线性回归、矩阵/ 张量分解、线性规划、傅立叶变换等。论文被引用次数超过2000次:

b28223144157qkukOZ2n.jpg

for the degree of WHAT?
 
看发表文章,应该是牛人。 当然牛不牛跟论文长度没有关系。
ICML, NeurIPS, ICLR, NIPs是顶级人工智能会议
不过第一作者只有一个NIPs文章
论文确实太长了。一般100多页,顶多300页。超过300页估计多是无意义的东西。

这里说了是,ias postdoc:
 
最后编辑:
这个论文的确很长,2840页,想想都害怕。一般博士论文能有30 到100页就很不错啦。
 
一般有价值的论文顶多十几页,两千多页的肯定是废话连篇。
 
一般有价值的论文顶多十几页,两千多页的肯定是废话连篇。
博士论文根据学校不同但要求就是起码200页,几十页是不可能过关的。
 
我只关心他导师给了他 pass 没?
 
看发表文章,应该是牛人。 当然牛不牛跟论文长度没有关系。
ICML, NeurIPS, ICLR, NIPs是顶级人工智能会议
不过第一作者只有一个NIPs文章
论文确实太长了。一般100多页,顶多300页。超过300页估计多是无意义的东西。

这里说了是,ias postdoc:
这个不绝对,亲眼见一中国哥们,把25篇第一作者的文章订在一起,加一上内容提要和前言做博士论文的,几百页的论文全是干货。
 
博士论文根据学校不同但要求就是起码200页,几十页是不可能过关的。
博士咱没读过,不清楚啊。你看爱因斯坦的相对论,手写的还不到50页,说明越长越没用。
 
博士咱没读过,不清楚啊。你看爱因斯坦的相对论,手写的还不到50页,说明越长越没用。
博士论文不是讨论一个问题的论文,要求起码三个,如顶楼的哥们,标题就三个方向了,三章节100页不算夸张,但两千页也是够奇葩的。
 
后退
顶部