文/尚进
一块右眼侧上方的微缩显示屏,一个右眼外侧平行放置的720p画质摄像头,一个位于太阳穴上放的触摸板,以及喇叭、麦克风、陀螺仪传感器和可以支撑6小时电力的内置电池。Google在I/O大会上公开了研发多时的Google Glass,一个近似配戴眼镜方式的辅助信息系统。尽管谢尔盖·布林并未更多透露Google Glass的工程细节,但1500美元的2013年预订价格,暗示了Google Glass的试验性质,至少按照目前无线传输和电池系统之间的能耗关系,Google Glass还无法实现很多以往科幻小说中的诸多设想。
如果说之前索尼Live View和摩托罗拉ACTV作为佩戴式随身信息装置的尝试,仅仅局限于手腕上,更多还是依赖于手指控制的传统人体工程结构,那么Google Glass最大的突破在于改换了每个人可能的信息角度,一个第一人称视角的以人眼直观信息获取作为人体工程介质的佩戴式工具。实际上,Google Glass上所有的技术都是现成的,关键的研发焦点在于人体工程探索,或者按照Georgia Tech增强现实环境实验室主管布莱尔·麦金泰尔(Blair MacIntyre)早前对Google Glass研发阶段质疑的回应那样:“这块透镜显示器如何在室外和室内瞬间差异巨大的光线条件下同时保证清晰显示,眼前端辅助识别设备的大众化人体工程研究几乎是空白。”
6月27日,美国旧金山谷歌公司I/O大会,谷歌联合创始人谢尔盖·布林介绍谷歌眼镜
Google之所以卧薪尝胆两年多孵化Google Glass,恰恰就是在试探这种眼前端的信息交互新方式,按照Google智能眼镜产品主管史蒂夫·李(Steve Lee)接受采访时的说法:“你要到一个未曾去过的酒吧,只想快速查看一下地图指引,这个信息需求在目前的智能手机上最少也需要30秒时间,把手机从口袋掏出来,解锁,打开Google地图,缩进到所谓位置,而在Google Glass的视角操作,只需要2到4秒。”不仅是追求比智能手机更快的信息获取速度,在Google的联合创始人谢尔盖·布林看来,Google Glass更是运算的下一种形式,一种以类似游戏中第一人称视角方式展现的信息交互体验。
Glass所谓的第一人称视角到底有什么意义呢?早在6月底的I/O大会之前,4月初Google就公布过一段有关Glass的视频,并且在5月25日由Google+开发者关系主管克里斯·沙博(Chris Chabot)上传了一组利用Glass拍摄的照片,以人眼的所见即所得视角抓拍,成为Google Glass最原始的卖点之一。作为Google死敌的Facebook收购拍照分享应用Instagram,恰恰就是希望获取智能手机上的图形核心入口地位,而Google Glass的所见即拍一旦流行,无疑可以颠覆盘踞于智能手机平台的Instagram,进而盘活Google+在社交网站生态中的信息获取源。
除了视角方式的图形信息获取能力,解放双手似乎成为Glass另一个核心特征。至少在配戴Google Glass的大部分时间里,可以任由双手自由活动,而不必将手指放在操控按钮上。尽管目前公布的Glass还是依靠于侧面的触摸控制板来操作,但并不代表Google没有为Glass引入体感识别的尝试,实际上在研发Glass初期就配套开发了一套感应控制系统,使用者通过摇晃脑袋的不同方位来控制操作,可头部摇晃并不是人类所擅长的人体工程学特征,最终只能暂时保留手指滑动的触控界面。而2013年Google真正将Glass量产时,很有可能会引入语音控制系统,就像Android智能手机上已经出现的Robin语音导航系统那样,这无疑将彻底让Glass实现智能化。
目前Google Glass最大的短板还在于坚持追求袖珍体积,只得减小电池容量,同时无法内嵌高能耗且有电磁辐射的3G通讯模块。目前Google Glass依靠Wi-Fi连接网络,以便即时收取邮件和通知信息,似乎Google短期并不急于让Glass成为智能手机的替代者,而更适合成为智能手机之外的智能眼镜分身。更关键在于Google Glass提供的第一人称视角信息装置,即便还不完善,可目前已经拥有的初步功能,足以形成自己的开放API,让第三方程序开发者来创意构思,如何让Google Glass更好玩。交互性游戏,基于地理位置信息的增强现实应用,很多智能手机上已经很成熟,但缺乏流行性的技术应用模式,都有可能在Google Glass上找到新卖点。