找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 63|回复: 0

麻省理工学院终身教职教授何恺明加入谷歌 Deepmind,兼职担任杰出科学家

[复制链接]

153

主题

1

回帖

467

积分

管理员

积分
467
发表于 2025-6-27 16:01:32 | 显示全部楼层 |阅读模式
<p data-vmark="e212" style="text-align: left;">AI 大牛何恺明最新动向来了!</p><p data-vmark="4668" style="text-align: left;">才刚拿下 MIT 终身教职没多久,这转眼又<strong>加盟谷歌 DeepMind 任杰出科学家</strong>。</p><p data-vmark="8d5e" style="text-align: left;">目前这一消息已在个人主页同步更新:</p><p data-vmark="0a45" style="text-align: center;"><img src="https://img.ithome.com/newsuploadfiles/2025/6/5fb996c5-2cf5-4097-9bc1-96eabf853a1b.png?x-bce-process=image/format,f_auto" w="1080" h="806" data-type="png" data-weibo="0" data-vmark="211b"></p><p data-vmark="d7d9" style="text-align: left;">也是在最近,MIT 官网发布公告称:</p><p data-vmark="d8ca" style="text-align: left;">今年 MIT 工程学院一共有 11 位教职人员获得终身教职,而何恺明也在名单中。</p><p data-vmark="32ef" style="text-align: left;">要知道他去年 3 月才正式在 MIT 开讲,这中间几乎只隔了一年左右时间。</p><p data-vmark="de85" style="text-align: center;"><img src="https://img.ithome.com/newsuploadfiles/2025/6/b97625ae-3b69-4b6f-91f0-752a1791ad65.png?x-bce-process=image/format,f_auto" w="1080" h="430" data-type="png" data-weibo="1" data-vmark="7ec5"></p><p data-vmark="7bea" style="text-align: center;"><img src="https://img.ithome.com/newsuploadfiles/2025/6/4ee6b913-26ba-4155-b40b-da05158fb838.png?x-bce-process=image/format,f_auto" w="1080" h="293" data-type="png" data-weibo="2" data-vmark="6769"></p><p data-vmark="abdd" style="text-align: left;">回到这次加盟谷歌,从介绍里可以看到,确切来说他应该算是<strong>兼职(part-time)</strong>。</p><p data-vmark="b28a" style="text-align: left;">虽然他本人没有透露更多信息,但某书上已经有自称谷歌员工的网友提前剧透了一波:</p><p data-vmark="0514" style="text-align: left;">他即将加入的是 DeepMind <strong>基础研究组</strong>,直属领导的 title 是 L8—— 离 DeepMind 老大哈萨比斯还隔着三个老板的距离。</p><p data-vmark="37ca" style="text-align: left;">那么问题来了,已经拥有 MIT 终身教职的何恺明,为啥又选择和谷歌联手呢?</p><p data-vmark="1463" style="text-align: left;">一扒才知道,原来二者早已多次展开研究合作 ——</p><h2 data-vmark="8d30">何恺明其人</h2><p data-vmark="6921" style="text-align: left;">先简单回顾一下何恺明的履历。</p><p data-vmark="13f1" style="text-align: left;">众所周知,何恺明算是 CV 领域(计算机视觉)的传奇人物。</p><p data-vmark="2053" style="text-align: left;">他本科就读于清华大学物理系,博士师从汤晓鸥,毕业于香港中文大学。</p><p data-vmark="4b30" style="text-align: left;">2009 年,汤晓鸥、何恺明以及孙剑凭借论文“Single Image Haze Removal Using Dark Channel Prior”,获得该年度 CVPR 的最佳论文奖,这也是第一次颁发给亚洲研究学者。</p><p data-vmark="0eb2" style="text-align: left;">2011 年博士毕业后进入微软亚洲研究院工作,任研究员,并在 2016 年加入 Facebook AI Research(FAIR)继续研究计算机视觉。</p><p data-vmark="3d8e" style="text-align: left;">不过在这之前,他于 2015 年提出的 <strong>ResNet(深度残差网络)</strong>,不仅在 ILSVRC 2015 分类任务竞赛斩获第一名,还拿到了 2016 年 CVPR 最佳论文。</p><p data-vmark="d397" style="text-align: left;">直到现在,ResNet 仍然是其最高引研究,单篇引用量已超过 <strong>28 万次</strong>。</p><p data-vmark="adf1" style="text-align: left;">而且这一概念如今已广泛应用于现代深度学习模型,包括 Transformer、AlphaGo Zero、AlphaFold 以及几乎所有 GenAI 模型。</p><p data-vmark="e637" style="text-align: center;"><img src="https://img.ithome.com/newsuploadfiles/2025/6/e72e40f4-2b7a-4b43-9f6d-7fc3e786ed06.png?x-bce-process=image/format,f_auto" w="1080" h="361" data-type="png" data-weibo="3" data-vmark="5df0"></p><p data-vmark="86d0" style="text-align: left;">在 FAIR 期间,何恺明和团队在计算机视觉领域取得不少亮眼的成绩,包括 Faster R-CNN 及后续的 Mask R-CNN 等一系列研究。</p><p data-vmark="f561" style="text-align: left;">其中,Mask R-CNN 解决了图片中的实例级对象分割问题,不仅能将照片中的人、动物等对象单一检测,还可为其每个对象实例生成一个高质量分隔遮罩,该研究也获得了 <strong>ICCV 2017 最佳论文</strong>。</p><p data-vmark="20b5" style="text-align: left;">在 FAIR 干了相当长一段时间后,2023 年他官宣加入 MIT EECS(电子工程和计算机科学系) ,选择正式回归学术界。</p><p data-vmark="7f3f" style="text-align: left;">这一转向在当时引起了广泛关注,甚至一众网友吐槽 Meta 痛失一员大将。</p><p data-vmark="fa4e" style="text-align: left;">后来的故事就接上咱们的开头了~</p><p data-vmark="e54b" style="text-align: left;">总之,从学术界到产业界再到学术界,何恺明一路积累了丰硕研究成果。</p><p data-vmark="1e48" style="text-align: left;">目前其谷歌学术总引用量已经超过 <strong>71 万次</strong>,是当之无愧的学术大佬。</p><p data-vmark="4566" style="text-align: center;"><img src="https://img.ithome.com/newsuploadfiles/2025/6/c80ec32c-cd4f-4103-a961-bb31cf7ee4b2.png?x-bce-process=image/format,f_auto" w="1080" h="519" data-type="png" data-weibo="4" data-vmark="42b5"></p><p data-vmark="2e01" style="text-align: left;">近来其研究主要集中在模型性能优化上,包括提出通过正则化表示(Representation Regularization)来改进图像生成技术、开发高度压缩的 Tokenizer 来实现在未经训练的情况下生成文本等等。</p><p data-vmark="b92e" style="text-align: center;"><img src="https://img.ithome.com/newsuploadfiles/2025/6/19331e26-c211-4294-97a4-50d0fd67277a.png?x-bce-process=image/format,f_auto" w="1080" h="868" data-type="png" data-weibo="5" data-vmark="af49"></p><p data-vmark="fc33" style="text-align: left;">一言以蔽之,不管身份如何转变,他始终在 CV 领域持续深耕。</p><h2 data-vmark="634f">和谷歌团队多有合作</h2><p data-vmark="3730" style="text-align: left;">事实上,何恺明和谷歌其实多有合作。</p><p data-vmark="1469" style="text-align: left;">就在今年 2 月,他还和谷歌 DeepMind 全华人班底(黎天鸿、Qinyi Sun、范丽杰)开辟了生成模型的全新范式 ——</p><p data-vmark="0f4d" style="text-align: left;"><a target="_blank" href="https://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&amp;mid=2247779692&amp;idx=1&amp;sn=f22a02be1ebc2fdeb392c331ac955d20&amp;scene=21#wechat_redirect">合发论文《Fractal Generative Models(分形生成模型)》</a>,首次使逐像素生成高分辨率图像成为可能。</p><p data-vmark="e0da" style="text-align: left;">具体而言,团队提出用参数化的神经网络作为分形生成器,从数据中学习这种递归法则,实现对高维非序列数据的建模,也可用于材料、蛋白质等。</p><p data-vmark="8a3b" style="text-align: left;">结果在「逐像素图像生成」这一任务中表现出色。目前相关成果代码已开源。</p><p data-vmark="a39b" style="text-align: center;"><img src="https://img.ithome.com/newsuploadfiles/2025/6/4335c805-118c-4867-a7ae-a8f0b8d0196a.png?x-bce-process=image/format,f_auto" w="1080" h="586" data-type="png" data-weibo="6" data-vmark="a175"></p><p data-vmark="597e" style="text-align: left;">此外,去年其团队还和谷歌 DeepMind 合作,<a target="_blank" href="https://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&amp;mid=2247753475&amp;idx=1&amp;sn=4138cb671d473d45f700baed033490d9&amp;scene=21#wechat_redirect">提出了一个基于连续标记的随机顺序自回归模型 ——</a><strong>Fluid</strong>。</p><p data-vmark="f218" style="text-align: left;">他们所要解决的问题是:视觉自回归模型的 Scaling,往往不像在语言模型里那样有效。</p><p data-vmark="f588" style="text-align: left;">而通过合作,他们为自回归文生图模型的扩展指出一个方向:</p><ul class=" list-paddingleft-2"><li><p data-vmark="c99d">基于连续 token 的模型比离散 token 模型在视觉质量上更好</p></li><li><p data-vmark="056c">随机顺序生成与光栅顺序相比在 GenEval 测试上得分明显更好</p></li></ul><p data-vmark="dd39" style="text-align: center;"><img src="https://img.ithome.com/newsuploadfiles/2025/6/30db4aba-81a6-4441-b49b-a1d42ff0aa04.png?x-bce-process=image/format,f_auto" w="1080" h="1017" data-type="png" data-weibo="7" data-vmark="b2c5"></p><p data-vmark="db2b" style="text-align: left;">更多研究在此不再枚举,总而言之,何恺明和谷歌 DeepMind 团队实则早有接触。</p><p data-vmark="4809" style="text-align: left;">因此这一次他选择和 DeepMind 合作,也可谓老熟人之间的强强联手。</p><p data-vmark="3088"><span class="referenceTitle">参考链接:</span></p><ul class="custom_reference list-paddingleft-1"><li class="list-undefined list-reference-paddingleft"><p data-vmark="4f83">[1]<span class="link-text-start-with-http">https://people.csail.mit.edu/kaiming/</span></p></li><li class="list-undefined list-reference-paddingleft"><p data-vmark="59bc">[2]<span class="link-text-start-with-http">https://scholar.google.com/citations</span>?user=DhtAFkwAAAAJ&amp;hl=en</p></li><li class="list-undefined list-reference-paddingleft"><p data-vmark="1e41">[3]<span class="link-text-start-with-http">https://news.mit.edu/2025/tenured-engineers-0624</span></p></li></ul><p class="it-news-source-tip" data-vmark="9e3b"><span class="font-color-greytip">本文来自微信公众号:<a href="https://mp.weixin.qq.com/s/9lwFyxDeys5XzUGhReZdGQ" target="_blank">量子位(ID:QbitAI)</a>,作者:一水</span></p>
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|Discuz! X

GMT+8, 2025-10-28 02:04 , Processed in 0.033888 second(s), 19 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表