段小草的回答
我的感觉是,经过一年多的发展,「生成式 AI 大模型 + 搜索插件」这套模式已经经过验证,成为 AI 工具的一项必备能力。如今既有能自主搜索的 AI 工具,传统的搜索也都在积极地加入 AI 功能。
可以说在我的日常使用中,已经离不开 AI 工具了。不光是搜索场景,我都很少自己读整篇原文了,比如题目中提到的朱啸虎这篇访谈就可以直接扔给通义千问去总结,快速提取出核心观点:
其实随着技术的发展,我对大模型和搜索的看法是在动态变化的:
- 大模型刚出来的时候,用户轻度体验过后就能感受到,生成式 AI 是变革式,仿佛在和一个全知全能的人聊天一样,当时就有人把大模型当「搜索工具」用,认为大模型会直接冲击搜索引擎;
- 随着用户使用的深入,我们发现大模型也有缺陷,即幻觉(hallucination),对于那些没有经过训练的内容,大模型会给出似是而非的一本正经的胡说八道式回答,于是又有很多人在科普不能把(断网的)大模型当搜索引擎用,小心幻觉;
- 随着技术的发展,又逐渐分化出了两个流派:一是以 NewBing 为代表的传统搜索引擎 + AI 功能;二是以 ChatGPT Browsing 插件为代表的 AI 工具 + 搜索能力;
- 目前,AI 搜索的产品形态还在发展,出现了一些类 Perplexity 产品,联络搜索插件 + 长文本 RAG 也成为了 AI 工具的必备能力。
可以说,以通义千问为代表的 AI 工具不论是在模型的理解、生成能力和产品体验,还是搜索增强插件和 RAG 长文本处理能力,都在全方位地卷。
我现在不喜欢用传统的搜索方式主要有两个原因,一是广告太多,如果只是一般网页的广告图片也就算了,搜索引擎的广告混杂在搜索结果中,很隐蔽也很烦人;二是信息处理的效率太低,需要一条一条点进去自己阅读,搜索结果中的内容要么同质化严重,要么话题相关性不高,有时看着看着脑子就跑到其他频道去了,容易分心。
简单来说传统的搜索方式过于 distraction(分心、消遣),获取信息和处理信息的效率都很低,想获取有价值的信息犹如大海捞针。AI 工具则不同,可以帮我们跳过杂乱的 UI 页面,跳过繁琐重复的阅读过程,帮助我们快速检索并处理信息,直接生成一篇完整而有逻辑的文本。
可以说使用 AI 工具除了直接提高信息处理效率,还能让我更加聚焦、专注在工作,不被杂乱的信息所打扰。
有人也许会说,现在搜索引擎也都加入了 AI 能力,那么问题来了:「AI 大模型 + 搜索能力」,和「搜索引擎 + AI 能力」究竟有什么不同?我们不妨拿着这个话题直接来问一下通义:
这个答案我觉得已经很完整了,总结一下就是:
- 大模型 + 搜索重在模型,不拘泥于提问的形式,可以用长文本、多轮对话来进行交流,充分利用 AI 的理解和生成能力,搜索只是对实时信息的补全,给 AI 工具提供更多基础性的参考资料;
- 搜索 + 大模型重在搜索,主要是针对搜索结果进行摘要总结,但搜索本身依然受限于传统的搜索技巧,理解能力和交互能力弱于 AI 工具。
说白了,「搜索 + 大模型」主体依然在人,用户需要自己提炼用于搜索的关键词;而「大模型 + 搜索」则扮演了一个完整的 AI 助手的角色,用户的提问、交流方式更加随意,而大模型则可以自行完成判断、规划、搜索、阅读、总结的完整工作流程。
也许目前的差别还不那么明显,但下一步随着 Agent 智能体的发展,搜索引擎和 AI 应用之间的差距会越来越大。毕竟搜索只是一个工具,一个环节,而 AI 应用可以是全功能的。
未来理想中 AI 搜索,我想会是更加 Agentic 化的[1]。很多时候我们想要的其实不是一个搜索或一个问题,而是一项任务。AI 需要自行判断这项任务是否需要搜索外部知识,将任务拆分成更多小 task(计划),通过迭代运行、调用不同工具,最终给出完整的结果。
Qwen 团队也在持续地开源 Qwen-Agent[2],提供搜索增强、代码运行和自定义助手功能。
我相信以国内目前卷模型、卷应用的劲头,AI 工具一定会更智能、更好用,那些学会使用 AI 工具、和 AI 协同进化的人也会享受到更多技术红利。