Android 12、Wear OS……谷歌凌晨“搞事情”?

两年后的今天,去年"缺席"的Google I/O大会披甲归来。

正如业界此前所预料的,Android和Wear OS都迎来了一波更新,更是贴上了"史上最大升级"、"最具雄心之一"等标签。

究竟,是什么样的升级能够配得上这些title?

Android 12——号称"最具雄心的版本之一"

在对Android 12进行介绍的时候,谷歌给了它两个title,一个是"有史以来最个性化的操作系统",另一个是"最具雄心的版本之一"。究竟Android 12有哪些亮眼之处?

· 个性化

谷歌推翻了自己Material Design的设计风格,改名叫Material YOU,外在表现是颜色更丰富了,用户可以自己决定UI部分的颜色风格。

又或者启用颜色提取功能,基于用户更换的壁纸,系统会自动确定哪些颜色是主要的,哪些是互补的,怎样搭配更好看。

除了颜色之外,一些细节动态效果也有改进,例如唤醒屏幕、壁纸的水波纹,并且通知栏也被设计得更直观、更有趣,让用户可以清晰地一目了然地看到应用通知、目前正在收听或观看的任何内容,以及快速设置,让用户通过滑动和点击来控制几乎所有的操作系统。

· 隐私与安全

Android 12上,Google再次强调了对于个人隐私的保护工作。

这方面,Android 12将会拥有一个全新的隐私仪表面板,这里提供了一个单一视角,可以让用户看到他所有的权限设置,以及哪些数据正在被访问,访问的频率和使用过它的应用程序。

同时,现在如果有App正在调用你手机的摄像头或者麦克风,手机右上角会有明显的图标提示。而与小米类似,Android也设置了一个按键,可以让用户一键关闭所有应用的传感器权限。

另外,Android 12还引入了一个"近似位置"、"私有计算核心"的概念,前者旨在保护用户真实的位置信息,比如一些天气类应用,完全不需要精确位置信息就能提供服务,后者则致力于将所有基于AI运算得到的数据,都会被存储在特定的空间内,与网络隔离,不会被外部刺探到。

· 设备互联

在这一点上,谷歌与华为在战略上颇为类似,皆是以手机为中心,向外扩散并连接其他智能设备,从而打造一个智联网生态圈。

其中,Android 12未来也能实现数字车钥匙的功能,Google表示正在和宝马谈合作,未来数字车钥匙会引入到更多品牌的汽车上。

Wear OS——卷土重来,史上最大升级

近几年来,谷歌对于Wear OS可以说是"放养状态",已经有几年没有被拿出来重点宣传了。

此次Wear OS携手三星和被收购的Fitbit卷土重来,不知道会不会是谷歌的最后一战。

众所周知,三星过去几年在可穿戴设备上一直使用自家的Tizen OS,但在新版Wear OS推出之后,三星和Google达成了合作意向,将Tizen OS和Wear OS进行整合。

此次Wear OS升级着力关注三个方向:开发平台,全新的用户体验,健康服务。生态方向,谷歌用三星来举例,讲解了手表系统的改进:速度提升30%,续航提升,健康监控等。

除了两大操作系统的更新,攒了两年实力的谷歌还带来了其他不少软硬件、算法的更新,覆盖了芯片、NLP模型、地图、相册等等。

Google Workspace功能更新:Smart Canvas

这是谷歌今天在现场宣布的第一个新产品,主要目的在于提高协同办公的用户体验。

具体来看,Smart Canvas允许工作人员将会议记录、项目路线图和头脑风暴表插入Google文档。它允许Workspace用户通过@提及来标记团队成员,创建一个目标清单,概述团队成员在项目开始前可能需要做的任何前期工作,然后提出产品想法,接着再由其他团队成员进行投票,也可以列出头脑风暴完成后团队需要采取的下一步行动。

同时,谷歌也对既有功能Google Meet做了一些改进,包括在通话时允许大家一起展示文档、工作表和幻灯片。另外,Google Meet还带来了"伴侣模式",至于声音降噪、画质优化等,当然也是正常操作了。

第四代TPU和量子计算

谷歌在现场宣布了第四代TPU(张量处理器,Tensor Processing Unit) Pods,并宣称其速度是上一版本的两倍。

依据谷歌CEO劈柴的介绍,这些芯片整合了4096个v4 TPU,每秒能浮点运算次数达到百亿亿次(1 exaflops)。未来,这款芯片将被用在谷歌的数据中心。

"这是我们在Google部署过的最快的系统,对我们来说是历史性的里程碑,"劈柴表示,"以前要想获得1个exaflops的算力,通常需要建立一个定制的超级计算机,但我们今天已经部署了许多这样的计算机,很快就会在我们的数据中心有几十个TPU v4 pods,其中许多将以90%或接近90%的无碳能源运行。而我们的TPU v4 pods将在今年晚些时候提供给我们的云客户。"

与此同时,谷歌也首次向外界展示了量子AI计算中心,我们可以在其中看到多款设备,其中甚至包括了谷歌量子计算机。谷歌方面表示,他们的目标是"纠错的量子计算机"。

新一代自然语言理解模型——LaMDA

2018年,谷歌BERT模型正式发布,彼时号称是谷歌在NLP方向的最强模型,而在今晚,谷歌带来了新一代的自然语言理解模型——LaMDA(Language Model for Dialogue Applications)。

不同于BERT,LaMDA的最大特色在于能够在多个话题之间自由切换,让对话的过程更为自然。这与它的训练方式有关,不同于一般的模型,LaMDA是基于对话进行训练的,其训练过程中会学习不同形式语言的开放式对话,同时分辨对话的上下文是否具有关联性。

对此,谷歌举例,当有人说出"我刚刚开始上吉他课",虽然这句话本身并不是发问,但是这位说话者可能希望有人能够夸赞他,比如"感觉好棒啊,我妈也常常弹奏她的古董马丁吉他"。可以看到,虽然前后不具备直接关联性,但却能够呼应前言。

目前,LaMDA模型虽然还处于研发过程中,但是劈柴表示,最终的目标是将其整合进Google Assistant、Google Search与Workspace等产品和功能中。

MUM——能看会道的多任务统一模型

MUM全称为"Multitask Unified Model",是谷歌开发出来试着更了解人们搜索意图的多模态AI模型,官方宣称,其性能比BERT要强大1000倍,接受75多种语言的培训,能够同时做到理解文字、视频和图像。

大会现场,讲解者展示了一个关于登山准备的复杂案例。比如有人搜索英文"hiking",MUM模型会判断他可能会想要健身,进而推荐适合的装备;又或者有人这样搜索"我已攀过亚当斯山,现计划明年秋天爬富士山,请问我还要做好其它准备嘛?",MUM模型最终给出的反馈是:"富士山高度与之相当,但温度更冷,所以请备好相关装备。"

Google Lens——拍照即购物

此次Google Lens的更新主要集中在两点,分别是教育翻译和拍照购物。

教育翻译功能下,用户甚至可以拍下数学题的照片,随即Google Lens会以当地语言翻译答案和信息。

而打开Google Lens,用户只需要将镜头对准物体进行识别,即可从手机下方页面跳出带有购物链接的图片选项。此外,当用户在相册中查看截图时,软件也会给出使用GoogleLens进行搜索的建议,跳转后将看到某些购物信息。

Google Map——更多信息元素与室内AR导航

Google Map的更新亮点主要有4个方面:

第一点是元素更多的即时街景,在2D地图中,这一更新使得地图元素详细到每条人行道、安全岛的配置,而在3D地图中,基于AR技术,店铺的人流、评分、照片等资讯都会一一展现出来。

第二点是室内导航。过往,Google Map的AR导航功能只适用于室外环境,而现在,他们将这一功能带到了室内,更方便于人们的更快穿行于建筑体内。这一功能将在苏黎世上线,下周将登陆东京。

第三点是基于预测行为提供服务。比如工作日的早上8点,Google Map会突出显示附近咖啡店的位置,等到下午5点,被突出显示的则是餐馆信息。另外,当用户来到一个新的城市,Google Map也会主动地智能化突显当地的地标建筑、特色景点等等。

第四点是区域繁忙度功能。顾名思义,在这一功能下,Google Map将实时显示多个区域的繁忙程度,让地图信息更加丰富,以便个人或团体更方便地出行。

Google Photos——记忆回溯、3D合成动图

此次在Google Photos的更新中,我们看到了几个熟悉的功能,比如给照片上锁。在此之前,诸如iPhone等就已经推出了这一功能。

而针对杂乱的照片,为了让人们更好地回顾照片,Google Photos此次更新中就带来了"自动整理相册"功能。过程中,谷歌将依据照片中的类似元素,比如相似的背包、相似的拍摄背景,又或者是依据节日等,将相似的照片整理成合集。

此外,利用机器学习功能,Google Photos可以自动插帧填补相似照片间的空白,继而生成3D动图效果。

谷歌的人文关怀与绿色理念

在大会的最后,通过4个项目,谷歌从公司层面展示了自己的人文关怀、科技创新以及可持续发展理念。

人文关怀主要涉及两个项目,分别面向人种肤色、健康和远程连接。

简单来讲,"肤色"背后是更包容的相机,通过算法等突出卷发以及棕、黑肤色,让深色皮肤的人不再被相机"忽视"。

健康是谷歌基于图像识别技术的一个皮肤检测工具,通过AI来帮助人们识别皮肤、头发或指甲的状况。过程中,用户只需要用手机的摄像头给问题区域拍三张照片,并回答一些关于症状的基本问题,该工具会从288个经过训练可以识别的条件中给出一个可能的条件列表,以帮助用户更好的了解相关的知识。

"远程连接"是谷歌一个名为"Starline"的项目,该项目利用高清摄像头、景深传感器等,能够搭建实时3D模型。从演示效果来看,这一技术下,通过屏幕远程对话时,对面的人再也不是平面图,而是呈现出一种真人就在对面坐着的效果。

当然,这一技术目前还未能普遍开放,第一步只计划面向医疗和媒体行业进行开放。

至于"可持续发展理念",这也是当前科技企业都在推崇的一件事——绿色环保。劈柴在现场为谷歌立下目标——到2023年,全天候使用无碳能源。

最后

看完整场发布会,从谷歌发布的多项更新来看,果然是攒了两年,干货不少。

只不过,相较于过往的历届发布会,虽然本次Google I/O大会依旧是AI的主场,但如同过往那般的激动却更少了。看完发布会的你,感觉如何?