谷歌周四宣布对其搜索功能进行一些更新,宣称它已经实现了人工智能(AI)和机器学习来改善用户体验。
用户现在可以通过移动应用程序哼哼、吹口哨或通过移动应用程序唱出一首歌来“这首歌是什么?”或者点击“搜索歌曲”按钮。
哼唱10-15秒将给谷歌的机器学习算法提供匹配歌曲的机会。
该功能目前在iOS上有英语版本,Android上有大约20种语言版本,未来两种平台都会有更多的语言出现人工智能更新还包括拼写和一般搜索查询。
这包括一种使用深层神经网络的新拼写算法,谷歌声称它已经显著提高了破译拼写错误的能力https://blog.google/products/search/search-on/“target=”noopener noreferrer nofollow“data component=”externalLink“>博客文章,谷歌表示,由于十分之一的查询拼写错误,它希望专注于拼写更新。
”in事实上,这一变化比我们过去五年来的所有改进对拼写的改进都要大,
“一种新的拼写算法可以帮助我们理解拼写错误单词的上下文,因此我们可以帮助您在3毫秒内找到正确的结果。”
同样,搜索现在将索引页面中的各个段落,以便找到搜索到的文本块的具体位置。
神经网络也被应用于理解某个兴趣点的副标题,谷歌表示,当用户进行广泛搜索时,这将有助于提供更大多样的内容。
“例如,如果你搜索‘家庭健身器材’,我们现在可以了解相关的副标题,如预算设备、高级精选或小空间创意,并在搜索结果页面上为您显示更广泛的内容。”,注意到这项功能将于今年年底推出。
在2018年启动数据共享项目(该项目带来了来自美国人口普查局、劳工统计局和世界银行等机构的数据集)后,谷歌已经将这些数据集投入使用,使信息通过搜索变得更加容易获取和有用。
“现在当你问“像‘芝加哥有多少人工作’这样的问题,我们使用自然语言处理将您的搜索映射到数据共享区中数十亿个数据点中的一个特定集合,以直观、易于理解的格式提供正确的统计数据,”博客解释道。
谷歌还指出,它的BERT语言理解系统现在几乎应用于每一个英语查询中,谷歌表示,这有助于用户获得更高质量的问题结果。
使用人工智能,谷歌表示,它现在可以理解视频的深层语义,并自动识别关键时刻。
目前正在测试的这项功能将在视频中显示时刻的标签。
谷歌还宣布了在学习和购物时使用谷歌镜头和增强现实的新方法。
通过照片或屏幕截图已经可以使用,但是现在用户可以在Google应用程序或Android上的Chrome上点击并按住一张图片,Lens会找到完全相同或相似的项目,并提出风格化建议。
这项功能很快将应用于iOS上的谷歌应用程序。
Lens现在可以识别150亿种东西,帮助识别植物、动物和地标。它还可以翻译100多种语言。
在处理错误信息方面,谷歌宣布对处理冠状病毒相关查询的方式进行了一些改进,包括特定地点的“忙碌状态”。
“实时忙碌更新向您展示了一个地方现在有多忙,因此您可以更轻松地与他人保持距离,我们还补充了谷歌说:“Live View是一项新功能,它可以帮助你在进入企业之前获得企业的基本信息。”COVID-19安全信息现在将被放在谷歌搜索和地图上的企业档案上。
“这将帮助您了解企业是否要求您戴口罩,是否需要提前预订,或者员工是否采取了额外的安全预防措施,如体温检查,”报告补充道。