在 2016 年世界经济论坛(WEF)达沃斯年会上,全球菁英聚焦在一项“下一件大事”的议题:“第四次工业革命”即将到来!推动第四次工业革命的主要动力就是人工智能(AI)。此后至今, AI 两个大字铺天盖地而来,不论是在科研圈还是行业里都成了一门显学,大众也实际体验到 AI 带来的不可思议。 随着世界各国、行业巨擘、初创公司积极拥抱 AI ,掀起了资料科学家、机器学习专家等人才的流动潮,尤其是不少重量级人物的异动,透露出大企业正在进行激烈的抢人大作战,去年,有“苹果 Swift 语言之父”美誉的 Chris Lattner,离开苹果加入特斯拉协助开发自动驾驶软体,待了半年随即加入 Google Brain 团队。 今年 2 月底,亚马逊 Alexa AI 负责人 Ashwin Ram 跳槽谷歌,成为谷歌云部门 AI 技术总监。4 月,曾任 Google 人工智慧暨搜寻部门负责人的 John Giannandrea 宣布离职投入苹果麾下,担任苹果机器学习及 AI 战略总监。8月,前特斯拉首席工程师、负责 Model 3 生产的 Doug Field,重回苹果怀抱,参与研发自驾车 Project Titan 计划,外电甚至爆出,2017年至今特斯拉已有多达 46 位特斯拉员工跳槽到苹果,让特斯拉创办人马斯克感到痛苦。 在国内高阶人才跳槽的情况也不惶多让,前亚马逊资深主任科学家任小枫在去年跳槽阿里巴巴,担任人工智慧核心团队 iDST 首席科学家和副院长,另外张潼从百度转战腾讯担任 AI Lab 主任,以及百度不少 AI 相关技术的高管或专家离职选择自行创业。近期,则有一则 AI 大明星的异动同样受到关注,那就是新任 NVIDIA 机器学习研究总监的 Anima Anandkumar。 最闪亮的 AI 明星 过去Anima Anandkumar在市值一度突破万亿美元的亚马逊担任 AWS 深度学习主任科学家,是什么原因让她从以软件、网络服务为主的公司,转而加入硬件公司英伟达? “我的任务是带领英伟达的研究范围进一步扩大及成长,同时与大学建立伙伴关系,” Anima Anandkumar 接受 DT 君专访透露她新工作的内容及方向。 过去产业对 AI 投入的关注较少,因此近年 AI 再度兴起后,许多公司都是从科研领域寻找高手,在 亚马逊成为 Anima Anandkumar 第一个进到行业里的工作之前,她是加利福尼亚大学尔湾分校(UC Irvine)电机工程与资讯科学系(EECS Department)的助理教授,研究兴趣包括大规模机器学习、非凸优化(non-convex optimization)和高维统计。 2010 年左右是大数据革命的开始,大家试图找出能够大规模处理数据的算法,做出有用的推论,她开始研究潜在变数(latent variables),“当资讯不够多的时候,我们就无法发现一些被隐藏的因素,但是如果只是受限于运算能力的话,其实是可以被辨识出来的”。而张量(tensor)研究领域就成了一个解法,“如果考虑一对变量之间的关系,这是成对的相关性,但是如果想考虑 3 倍或更高倍数之间的关系,这就需要张量,”她说。 图 | Animashree Anandkumar “我的目标是让世界上每个人都可以使用机器学习,不必是机器学习、应用领域或编程方面的专家,缩小从制定理论到技术落地的鸿沟”。因此,让技术易用、而且可以实际落地就成了她的使命,她在 AWS 期间一直领导张量算法的开发和分析,加速那些执行在 AWS 上的应用、服务的效率,并且开发多模态处理算法,可以同时处理文本、图像和其他大规模模态,为 Apache MXNet 提高了可编程性和易用性。 她心中的英伟达是做什么的公司? 众所皆知,亚马逊无疑是 AI 技术最领先的公司之一,英伟达更是因 AI 而咸鱼翻生,世界上众多的 AI 模型背后都是仰赖 GPU 强劲的算力来运作,因此被喻为是“提供 AI 军火的弹药商”,论技术实力同样是位在 AI 领先群里,只不过软硬件公司的企业文化向来很不同,两家公司的商业模式也差异颇大。 “为什么会在这个时刻加入英伟达?对你来说,英伟达是一家什么样的公司?”DT 君提问。 “NVIDIA是一家非常具有创新精神的公司。如果你看它的轨迹,从一个以图形加速器为根基的公司,掀起了高性能计算的革命,再到现在的人工智能,于深度学习起了关键作用,这真是太神奇了!唯有当一家公司具备创新的DNA,才有可能实现这一点,”她自信的说。 她也指出,英伟达不仅仅是一家硬件公司,“CUDA 函式库(library)的开发一直是扩展深度学习的关键。CUDA primitives 也与我的张量研究有关。”几年前,Anima Anandkumar 与英伟达研究人员 Cris Cecka 一起为张量缩并(tensor contraction)的操作构建了扩展的 BLAS 内核。加入新東家之後,她期许为 CUDA 中的张量代数(tensor algebraic)运算提供更多支持,藉此能夠创造更高效的张量神经网络架构。 到英伟达之后要做什么? 由于英伟达目前的重心除了 AI 之外,就是自动驾驶,因此让人好奇她是否会参与自动驾驶方案开发,张量研究也能应用在自动驾驶领域吗?面对 DT 君的提问,她回答:张量可以广泛适用,因此许多机器学习框架都以张量来命名,像是谷歌的 TensorFlow、英伟达的 Tensor Cores 等。简单来说,张量是多维阵列,但从数学上讲,它们远不止于此,相较于矩阵,张量可以用更丰富的方式操作,例如矩阵运算只能在两个方向上:左乘或右乘,但是你可以用无数的方式缩并张量。 图丨NVIDIA DRIVE Constellation(来源:NVIDIA ) 她进一步指出,我们现今运行的神经网络类别只要它只涉及矩阵运算,丰富的张量运算就可以扩展到其中。“我的研究表明在计算机视觉和时间序列预测等各种领域,张量化的神经网络更加结实、紧凑,并且可以更通用。我期待在 NVIDIA 进一步开展有关张量和其他主题的研究。” 从张量算法到机器人,她都很拿手 |
下一篇:趣头条没有护城河