Siri一项语音控制功能,在于iPhone 4S一同发布后至今已有一年多的时间了。再看了官方的详细介绍后,感觉Siri拥有无限的潜力,理由是:
1. 自然语言界面在未来将能应用到多点触控和图像的操作,正如它们对命令行的操作;
2. 因为有了这个界面,苹果可以不用依赖谷歌搜索,与第三方搜索引擎合作;
3. 凭借Siri作为中介,苹果还能获取顾客的深入分析报告。
作为用户,我满意Siri提供的结果以及方式,我仍希望苹果:1. 整合Spotlight,因为有时候不方便说话,或者自然语言解析器无法使用时,我还可以手动操作;2. 进一步改善,减少自然语言解析器失效的几率。
目前,苹果Siri能提供体育、餐厅、电影方面的结果,包括预约餐厅、购买电影票。谷歌也发布了他们的语音服务Google Now。谷歌知道如何提供服务,正如苹果擅长于硬件和软件。Google Now凭借谷歌领先的后端框架,提供设备上的语音分析,比Siri更智能地预测用户想要知道的信息和答案。
目前苹果已经开始从亚马逊招聘贤才来改善Siri服务,并已交由苹果的“救星” Eddy Cue来负责Siri的改善。虽然服务器不够谷歌的强,反应有些慢,但Siri服务还是非常实用的,她的问题必须认真对待。
速度和可靠性
不得不承认,Siri自发布到现在一直存在的问题是,有时候她连接不上服务器,即使能连上,速度有时候也会很慢。部分原因跟网络有关。用户给Siri的指令必须先发送到苹果服务器,然后再反馈回来。如果说是一些需要网络的操作,Siri反应慢还情有可原。但有时候只是让Siri设置一些本地的应用,如闹钟、提醒事项,Siri还是不可理解地反应慢。
谷歌的Google Now提供的是设备上的语音分析服务,技术上可达到iOS 7的Siri。设备上的语音是了不起的技术,这种方式不仅能让本地设置(如设置闹钟)瞬间可完成,还能基于应用程序的本地缓存数据快速完成其他指令,而且还能减少服务中断的窘境。
体育赛事结果、电影放映单、预约餐厅,这些当然还是需要网络,但地图、和用户经常搜索的感兴趣的数据,这些可以本地缓存,减少对苹果后端的依赖。说起苹果后端……
后端构架
Siri的可靠性是苹果的硬伤,而可靠性依赖的是苹果弱不禁风的服务器。苹果服务器不单单影响到Siri的发挥,还影响到“游戏中心”、iMessage,甚至App Store等一些依靠网络服务的应用。相对来说,谷歌、Facebook、亚马逊他们的服务器就增强许多。
我们可以看到苹果已经在扩展他们的数据中心,虽然更多的可能是用来支持iCloud云服务,但相信苹果不会愿意放弃增强Siri所以最重要的还是先增强服务器,毕竟苹果如今推出像Siri、iMessage这样牛逼的功能,如果因为后端架构滞后而不被广泛使用,实在是可惜。
API
开发者从Siri发布开始就一直盼望苹果给他们提供API,但至今为止还没见踪影。一名开发者称:“苹果应该还没有Siri的内部API,甚至连测试版都还没有。我不怪苹果。毕竟像Siri这样的人工智能系统,苹果要确保内置于应用程序的Siri插件能应付得了每天无数的指令。如果不能确保这一点,苹果都不会考虑给开发者提供API。”
苹果迟迟不给Siri的API,开发者自然会很沮丧,但对用户来说是好事。至少苹果在能控制Siri体验之前,我们还不用随处可见不完美的Siri。
功能
除了速度、可靠性、给开发者的API不能满足外,Siri 的功能也依然不能让用户满足。即使是苹果原生的程序,Siri都不能前后一致。比如,Siri能编写短信息和邮件,但她只能阅读收到的短信,而不能阅读邮件。一年过去了,Siri依然还不能操作一些基本的设置功能。
结语
苹果懂得如何将硬件和软件结合,提供一流的用户体验,但提供服务一向不是苹果擅长的事情,Siri这一年的表现足以看出。但从地图问题我们可以看到苹果致力于改善服务的诚意,虽然这意味着苹果需要更加努力。