中科医院曝光资质 http://finance.sina.com.cn/chanjing/b/20091014/11153079059.shtml机器之心报道机器之心编辑部「DeepNumPy可以写深度模型,且与经典NumPy%兼容」,AWS副总裁Smola说,「深度图学习本领强大,Transformer也可以分解为图」。「Julia内建可微分编程,定义任何函数,他就会自动算出值以及梯度!」,Julia创始人Viral说。这就是WAIC开发者日,属于开发者的节日。WAIC世界人工智能大会已于近日在上海开幕。在昨天由机器之心承办的开发者日主单元上,阿里技术副总裁贾扬清、亚马逊机器学习副总裁AlexSmola、百度AI技术平台体系执行总监吴甜、Julia创始人Viral、Skymind联合创始人AdamGibson做了精彩演讲。阿里贾扬清:从20瓦到20兆瓦的大脑从20瓦的人脑到20兆瓦的云智能,近年来,随着算力、算法、数据的蓬勃发展,机器学习的基础设施也完善了起来。在WAIC开发者日中,贾扬清第一个分享了他这几年在人工智能领域的一些探索和想法。贾扬清是知名的人工智能青年学者,在加入阿里巴巴之前,他曾任FacebookAI架构部门总监,负责前沿AI平台的开发。在深度学习研究、工程、框架等诸多方面,贾扬清有众多为人所熟知的工作。今年3月,贾扬清正式宣布加入阿里巴巴,担任技术副总裁岗位,领导大数据计算平台的研发工作。在第一场分享中,贾扬清以《20瓦,64千瓦和20兆瓦的大脑》为题,从算法的潜力提升、算力的重要地位、数据的爆发式增长三方面讨论了这些年的AI发展,并最终表示「结合三者,云是AI的必然形式」。什么是算法的潜力人类大脑功率大约20W,那么都能做些什么呢?这包括与环境交互、学习、推理等等。但是人工智能模拟起来却非常难,贾扬清最开始从经典机器学习算法讲到当前主流的算法,回顾了这些年算法潜力的变迁。举个简单的例子,机器学习需要图像特征,那么最开始是通过HOG获取简单的特征,后来发现「边缘」可能非常重要,因此各种卷积神经网络也就大显身手了。深度神经网络大大提升了算法的潜力,贾扬清举了个案例,在ImageNet图像识别挑战赛中,最开始SVM等经典算法已经到头了,但那时它们的潜力也只能支持达到25%的错误率。但随着AlexNet的提出,错误率瞬间就降到了15%,而且重要的是,这种方法有很大的潜力,之后的研究使ImageNet的错误率一直在降低,甚至低于「人类」识别错误率5%。深度学习利用强大的拟合能力大大扩展了算法潜力,现在算法问题已经解决了,那么算力问题呢,我们该怎样利用计算系统提升训练速度?为什么需要算力、数据人脑的计算速度是有限的,但计算机可以通过堆算力来提高计算机系统或机器学习系统的能力。在这方面,人们一直在研究如何通过系统的方法提高训练速度。年,机器识别一张图片里的内容要花13微秒左右,但今天,这一速度已提升了上百倍甚至上千倍。这一提升得益于GPU的聚合:单个GPU每秒只能处理张图像,比人快不了多少,但个GPU聚合在一起却可以处理6万张图像。因此,我们可以通过大量堆算力的方式来提高训练速度,这也是大家前几年不断努力做的一件事情。而这些GPU又通过分布式训练的方式进行合作。如果说算法是潜在的能力,那么算力就是发挥潜力的保证。但是,算力将训练速度提升之后,模型的复杂度也随之提高。而模型越复杂,过拟合的可能性也就越大,因此我们还需要更多的数据来缓解过拟合。从年至今,训练模型所需的数据量也经历了爆炸式增长,从MB到GB,再到TB和PB。20兆瓦的大脑有了高效的算法、海量的数据和庞大的算力,那么怎样才能将它们聚合在一起并应用到实际业务中呢?贾扬清表示,很多科技巨头都是通过云的方式来解决,也就是通过20兆瓦的大脑解决。贾扬清说:「为什么我们说只有通过云这种模式,才能够实现机器学习的创新?是因为云向我们提供了更大的规模、更高的可用性、更强大的安全性。」此外对于公司来说,我们
转载请注明:http://www.aierlanlan.com/cyrz/6780.html