如约而至,谷歌开发者大会正式开幕,谷歌首席执行官 Sundar
Pichai关于将重心从移动互联领域转向人工智能领域的判断几乎渗透了开幕主旨演讲的每一个细节。
据DeepTech深科技5月18日消息,在开幕主旨演讲中,Sundar
Pichai正式宣布现已将整体战略从“移动优先”转变为“AI优先”。因此,谷歌搭建了全新的AI优先型数据中心,并在 2016
年发布专门为机器学习定制的TPU(张量处理单元)。TPU与CPU、GPU相比,效率提高了15-30倍,能耗降低了30-80倍。
事实上,TPU已经部署到了几乎所有谷歌的产品中。不论你使用
GOOGle 搜索、还是与 Google Assistant
对话,甚至在AlphaGo与李世石的围棋大战中,TPU也起到了关键作用。
一般而言,机器学习分为两部分:训练(Train)与应用(Inference)。通过训练来建立神经网络,要求很强大的计算能力;应用则是去完成分辨图片上是猫是狗等具体任务。而
TPU 主要是用来优化应用端的,而训练端目前还是需要使用GPU。比如,谷歌目前每个机器翻译模型,都需要 100 个 GPU 上花一周时间去完成 30
亿个词语的训练。
谷歌发布的Cloud TPU则是同时针对训练和应用两方面。全新的Cloud TPU拥有四个处理芯片,每秒可完成180
tflops计算任务。将 64 个 Cloud TPU 相互连接可组成谷歌称之为Pod的超级计算机,Pod将拥有11.5 petaflops的计算能力(1
petaflops为每秒进行1015次浮点运算)——这对AI领域的研究来说将是非常重要的基础性工具。
之所以将其称之为 Cloud TPU
是因为这些全新硬件将加入谷歌云计算平台,并整合进谷歌计算引擎(Google Compute
Engine)。谷歌要打造全世界最好的机器学习计算平台,所以也希望为开发者们提供最好、最广泛的硬件选择,从CPU、到 GPU(包括 Nvidia 上周最新发布的
GPU 产品)、再到
TPU。
目前,谷歌已将所有人工智能相关工作全部纳入新建立的Google.ai,目的是集中公司内部所有优势资源与人力来研发真正能造福人类的AI技术。Google.ai将聚焦三个方面:从事最前沿的技术研发、提供最好的软硬件工具、探索AI的实际应用。
此外,谷歌还发布了一个全新版本的TensorFlow,这个专门为移动设备开发的版本名为TensorFlow
Lite——这个全新的程序集允许开发者们编写更为简洁的深度学习模型,从而可以在 Android
智能手机等移动设备上运行。
由于谷歌已经开放了众多在 Android 平台上运行的 AI
相关服务,也确实有必要开发一个更为精简、高效的全新架构来满足在移动设备上运行的需要。谷歌将开源 TensorFlow Lite,并在今年晚些时间开放 API
端口。
相关概念股:
科大智能:与复旦大学合作研究类脑人工智能技术。
科大讯飞:通过切入汽车车载语音领域开拓人工智能的商业化应用。
赛为智能:为国内最专业的智能化系统解决方案提供商之一,公司及全资子公司合肥赛为智能自主研发的人工智能领域产品有智能视频分析、人脸识别产品和无人机。
华中数控:公司与阿里云达成战略合作布局智能制造等有望受益。
全志科技:致力于为人工智能提供基础计算平台、SoC+完整解决方案等。
佳都科技:重点布局人脸识别技术,公司的人脸识别算法具有建模速度快等特点,已将其应用于智能安防。