当前位置:首页 > 问答 > 正文

细想一下,谷歌搜索用上AI算法后,那些结果可能没你想的那么简单甚至有点吓人

细想一下,谷歌搜索用上AI算法后,那些结果可能没你想的那么简单甚至有点吓人

我们习惯了谷歌搜索框的简洁,输入几个关键词,敲下回车,成千上万的结果瞬间呈现,我们默认这些结果是“客观”的,是互联网这个庞大图书馆的“自然”排序,但如今,谷歌大力押注AI(特别是像Gemini这样的生成式AI),准备用AI直接生成答案摘要,取代传统的链接列表,这个看似更“方便”的进步,背后隐藏的复杂性甚至危险性,值得我们停下来细思一番。

最直接的问题:AI生成的“可能是一个精致的“权威谎言”。

以前,谷歌给你十条链接,你至少能看到不同的来源、不同的观点,你可以自己判断纽约时报和某个小众博客在报道同一事件时的角度差异,这是一种信息的“民主”,但AI摘要呢?它会把多方信息咀嚼、消化,然后吐出一个它认为“正确”或“最相关”的单一答案,这个“认为”的过程,完全由AI模型的训练数据和算法决定。

这里有个可怕的例子,来自《大西洋月刊》的一篇分析文章,文章提到,如果你问AI一个复杂或有争议的问题,以色列-巴勒斯坦冲突的根源是什么”,AI可能会生成一个看似中立、平衡的摘要,但这个“平衡”本身就是一种主观选择,它选择了包含哪些事实,忽略哪些事实;用什么语气描述;把哪个观点放在前面,这些选择背后的逻辑是不透明的,更糟的是,如果AI的训练数据本身就有偏见,或者被恶意“投毒”植入了错误信息,那么它生成的摘要就会把这些偏见和错误包装成不容置疑的真理,因为你连查证的原链接都可能懒得去点了,这就像以前你还能看到食材,现在只能吃到厨师做好的一盘菜,而你根本不知道他往里加了什么佐料。

个性化推荐将走向极致,我们可能被关进更坚固的“信息茧房”。

传统的搜索算法已经会根据你的位置、搜索历史进行个性化排序了,但AI的介入会将这种个性化推向一个全新的高度,科技媒体The Verge曾评论说,生成式AI可以理解你提问的深层意图和上下文,从而给出极其贴合的答案,这听起来很棒,但反面是,AI可能会过度迎合你。

想象一下,如果你曾表现出对某种健康养生法的兴趣,之后你搜索“感冒了怎么办”,AI生成的摘要可能会极力推荐那种养生法,而将主流医学建议弱化或放在不起眼的位置,因为它“知道”你偏好这个,长此以往,你通过搜索接触到相反观点、挑战自己固有认知的机会将大大减少,AI会成为你最“懂你”的共鸣箱,也是最高效的“思维牢笼”建造者,你以为是自己在探索世界,实际上是AI在根据你的历史画像,为你精心建造一个你以为的世界。

第三,互联网的生态可能被摧毁,我们或将失去信息的源头。 创作者和网站运营者最大的恐惧,如果用户所有问题都能在谷歌的AI摘要框中得到解答,谁还会点击进入原始的新闻网站、专业博客或论坛呢?据路透社新闻研究所的报告指出,如果谷歌全面转向AI摘要答案,传统媒体网站的流量可能会遭受灾难性打击。

这不仅仅是商业问题,点击链接进入原始网站,你可能会看到文章的全貌、作者的详细论证、读者的激烈评论,这些上下文是AI摘要无法完全捕捉的“信息生态”,如果源头网站因为失去流量而纷纷倒闭,那么AI未来又将从哪里获取信息来“学习”和“呢?这无异于杀鸡取卵,我们可能面对一个由AI把持的、看似信息充沛实则源头枯竭的知识荒原。

责任归属变得模糊,当AI出错时,我们该找谁?

以前搜索出问题,比如链接指向虚假网站,我们可能会骂那个网站无耻,或者怪自己辨别力不强,但当AI给出一个看似权威实则错误的答案,并导致你做出错误决策(比如错误的医疗建议、投资失败)时,责任该由谁负?是开发AI的谷歌?是提供原始信息的网站?还是轻信AI的你?

《华尔街日报》曾探讨过AI的法律责任问题,目前这仍是一片灰色地带,谷歌可能会在AI答案下方用小字注明“可能出错,请核实”,但这足以免除其责任吗?当AI成为我们获取信息的主要门户,这种责任模糊的状态是非常危险的。

谷歌用AI重塑搜索,远不止是“更快更准”的技术升级,它关乎真相的呈现方式、我们认知世界的广度、互联网的健康生态以及谁该为错误负责等深层问题,那个简单的搜索框背后,正在演变成一个由复杂算法驱动的、拥有巨大权力的“真理部”,在欣然接受这份便利之前,我们确实需要多想一步,因为这关乎我们所有人未来的信息环境,这不仅仅是谷歌的故事,也是我们每个人的故事。


细想一下,谷歌搜索用上AI算法后,那些结果可能没你想的那么简单甚至有点吓人