黑基网 首页 学院 智能硬件 查看内容

谷歌重磅发布“云端人工智能芯片”,正式宣布整体战略大变革

2017-5-19 09:51| 投稿: heilong916| 查看: 585| 评论: 0|来自: 互联网

摘要: 如约而至,谷歌开发者大会今日正式开幕。更不出意料的是,谷歌首席执行官 Sundar Pichai关于将重心从移动互联领域转向人工智能领域的判断几乎渗透了开幕主旨演讲的每一个细节。在开幕主旨演讲中,Sundar Pichai正式 ...

如约而至,谷歌开发者大会今日正式开幕。更不出意料的是,谷歌首席执行官 Sundar Pichai关于将重心从移动互联领域转向人工智能领域的判断几乎渗透了开幕主旨演讲的每一个细节。

在开幕主旨演讲中,Sundar Pichai正式宣布现已将整体战略从“移动优先”转变为“AI优先”。因此,谷歌搭建了全新的AI优先型数据中心,并在 2016 年发布专门为机器学习定制的TPU(张量处理单元)。TPU与CPU、GPU相比,效率提高了15-30倍,能耗降低了30-80倍。

图丨谷歌于2016年发布的TPU

事实上,TPU已经部署到了几乎所有谷歌的产品中。不论你使用 Google 搜索、还是与 Google Assistant 对话,甚至在AlphaGo与李世石的围棋大战中,TPU也起到了关键作用。

一般而言,机器学习分为两部分:训练(Train)与应用(Inference)。通过训练来建立神经网络,要求很强大的计算能力;应用则是去完成分辨图片上是猫是狗等具体任务。而 TPU 主要是用来优化应用端的,而训练端目前还是需要使用GPU。比如,谷歌目前每个机器翻译模型,都需要 100 个 GPU 上花一周时间去完成 30 亿个词语的训练。

图丨机器学习分为两部分

谷歌今天发布的Cloud TPU则是同时针对训练和应用两方面。全新的Cloud TPU拥有四个处理芯片,每秒可完成180 tflops计算任务。将 64 个 Cloud TPU 相互连接可组成谷歌称之为Pod的超级计算机,Pod将拥有11.5 petaflops的计算能力(1 petaflops为每秒进行1015次浮点运算)——这对AI领域的研究来说将是非常重要的基础性工具。

图丨谷歌最新发布的Cloud TPU及以其为基础搭建的Pod

之所以将其称之为 Cloud TPU 是因为这些全新硬件将加入谷歌云计算平台,并整合进谷歌计算引擎(Google Compute Engine)。谷歌要打造全世界最好的机器学习计算平台,所以也希望为开发者们提供最好、最广泛的硬件选择,从CPU、到 GPU(包括 Nvidia 上周最新发布的 GPU 产品)、再到 TPU。

目前,谷歌已将所有人工智能相关工作全部纳入新建立的Google.ai,目的是集中公司内部所有优势资源与人力来研发真正能造福人类的AI技术。Google.ai将聚焦三个方面:从事最前沿的技术研发、提供最好的软硬件工具、探索AI的实际应用。

此外,谷歌还发布了一个全新版本的TensorFlow,这个专门为移动设备开发的版本名为TensorFlow Lite——这个全新的程序集允许开发者们编写更为简洁的深度学习模型,从而可以在 Android 智能手机等移动设备上运行。

由于谷歌已经开放了众多在 Android 平台上运行的 AI 相关服务,也确实有必要开发一个更为精简、高效的全新架构来满足在移动设备上运行的需要。谷歌将开源 TensorFlow Lite,并在今年晚些时间开放 API 端口。

讲完主要的技术,我们接下来介绍下此次大会推出的其中一些应用层面的新产品。其中颇为令人关注的是一款名为Google Lens的新功能。简单而言,Google Lens能够基于用户正在查看的内容、上下文的信息以及可操作的选项,从而为用户更详细地介绍和解读手机摄像头里面几乎所有的内容。

在其主旨演讲中,Sundar Pichai 介绍了 Google Lens 项目,乍一听上去这很像当年的 Google Glass 技术。通过这一技术,用户可以将Android设备的相机指向某物,无论是花、餐厅还是Wi-Fi网络名称,Google Lens都将为用户提供相关正在查看的更多信息。

图:在演示中,Sundar Pichai展示了Google Lens能够立即识别出花朵的图像

而在一个演示中,Google Assistant 使用 Google Lens 的技术将日语翻译成英文,因为相机指向了日文标志。 Google Assitant 还能使用 Google Lens 技术帮助用户识别电影,并提供不同的服务选项,包括购买门票、为用户日历添加电影时间等。

图丨Google Lens在读取图片中的信息后将手机自动接入相应Wi-Fi

然而,Google Lens演示中最令人兴奋的案例却只是一张写有Wi-Fi网络名称和密码的照片。用户只需将手机相机指向这张照片,Google Lens就可将手机设备连接到网络,免去了中间一系列的繁琐步骤。

图丨谷歌声称,其图像识别技术比人类识别更准确

据 Sundar Pichai 透露,Google Lens 功能首先在 Google Assistant 和 Google Photos 应用中推出,然后再在其他项目中推出。

看到这里,很多iPhone用户就会问:“这和我们几乎没有任何关系。”错了!这同时也验证了之前的谣言是真的:谷歌宣布,Google Assistant 将作为独立的应用程序登录苹果的 iOS 系统,但问题在于, Google Assistant 将无法进行 Android 设备上的全部功能操作。即便如此,这也是令人匪夷所思的一大惊喜了。

此外,Google Photos 在今天也带来的重大更新。作为谷歌近年来最为热门的应用,Google Photos的发展速度已经远远超过了 YouTube、Gmail 和Chrome——全球范围内每月活跃用户已经超过了 5 亿人,每天的照片和视频上传量也已经超过了 12 亿次。

不仅如此,在与苹果的iCloud、亚马逊和Facebook相比,Google Photos也表现出很大的优越性,不仅提供免费的高分辨率存储服务,搜索和分类功能也是十分的智能,更有意思的是,它的短片制作工具可以将照片或视频直接剪辑成迷你电影。

虽然这些服务已经做得足够好了,但谷歌明显还不满足,他们认为在照片分享部分仍有许多尚待解决的痛点,而这些也就是 Google Photos 团队下一个主攻的方向。

图丨Google Photos 团队成员(从左到右)Aravind Krishnaswamy,James Gallagher,Anil Sabharwal,Leslie Ikemoto和David Lieb

在今天的 Google I / O 2017 开发者大会上,Google Photos 副总裁 Anil Sabharwal 公布了 Google Photos 的三大更新:照片分享建议、Photo Books和新增的Google Lens功能。其中,谷歌非常贴心推出的“Photo Books”实体书制作服务,可以将用户手机中精心选择的照片打印成册,价格大概为平装版 9.99 美元,精装版 19.99 美元。

图丨Google Photos 副总裁 Anil Sabharwal

根据大会现场所发布的信息,Google Photos照片建议分享功能是基于人工智能所开发的,最明显的变化是在Google Photos应用中新加入的“分享”的标签。根据现场视频的演示,该功能能够直接识别出用户所拍摄的照片中的好友,并向用户提出建议,将这些拍到他们的照片发送给他们。当对方分享了几张关于你的照片的话,你也会马上收到。

在接收到这些照片之后,用户同样也可以将它们添加到相册的“分享库”中。Google Photos 会自动给出可以分享的照片建议。当然,用户自己也可以按照相册、日期或照片中特定事物来指定要分享的照片。

在现场,Anil Sabharwal 是用实际行动来演示了这一功能,他将自己两个女儿的贴纸板搬上了舞台,并与“她们”合影,然后就很轻松地将所有包含两个小女孩的照片分享了出去。总而言之,照片建议分享这一功能让照片分享变得更加简单、智能化。

预计,该功能更新将于几周后在Android、Web、以及 iPhone 等各大平台推出。

另外,如上面已经提及,谷歌对于机器学习的挖掘还体现在将 Google Lens 功能整合进了Google Photos之中,由此,新版的Google Photos将支持快速识别图片当中的信息,比如图片中如果包含有电话号码,那么Google Lens就可以自动识别并且进行拨打。

而如果你曾经去过一些景点或者知名场所并拍摄了大量的照片,那么新版的Google Photos就会记录下这些信息,当你需要对它们进行了解的时候,只要轻触一下屏幕上的 Lens 键,那么就会标记出照片中事物的注释,非常的方便。据悉,该功能将于今年晚些时候推出。

在此次开幕演讲中,谷歌还发布了许多其他的产品,比如VR/AR类新产品等。但总而言之,谷歌的战略十分清晰,利用其 TPU 的强大运算能力,驱动旗下所有产品的更新和迭代,而这些产品都有一个非常明显的趋势,即人们越来越不需要用手来使用移动端设备,语音和图像将慢慢把人手进一步解放出来。


鲜花

握手

雷人

路过

鸡蛋

相关阅读

返回顶部