AI大模型应用开发实战(03)-为啥LLM还没能完全替代你?

本文涉及的产品
多模态交互后付费免费试用,全链路、全Agent
简介: 【8月更文挑战第4天】

1 不具备记忆能力的

它是零状态的,一些大模型产品,尤其他们的API,发现你和它对话,尤其是多轮对话时,经过一些轮次后,这些记忆就消失了,因为它也记不住那么多。

2 上下文窗口的限制

大模型对其输入、输出有数量限制。为保护它自己,这计算能力或保护相当于带宽的概念,如openAI之前只有32k。最新上下文窗口扩张到128k,相当于一本《Clean Code》,这角度来看,这个问题其实已被解决。

但其他很多模型上下文窗口还是比较小,就有很多限制。如不可发一长段prompt或提示词,也不可不停在那对话.

你要注意计算整个窗口token消耗,避免被截断。

3 实时信息更新慢,新旧知识难区分

基于预训练的模型,拿大量数据在神经网络的训练,然后形成模型,其知识库就依赖于拿去训练的这些材料。

底模数据较小时,就会出现幻觉,胡乱回答。

4 无法灵活的操控外部系统

很多大模型只可对话,但无法作为一个外脑去操作外部的一些系统。虽然ChatGPT出现插件机制、开发工具。但实际用后,还是相当于提供一个非常标准的东西,定制开发或更深度融合较难。

若想用大模型作为一个外脑操控智能家居系统、操控汽车,需要有一些连接器和框架帮助。

5 无法为领域问题提供专业靠谱答案

你问泛泛而谈的东西,都能回答好,可一旦问他非常专业问题,就答不上来,因为这专业问题,他可能不涉及。虽然他回答的答案是看起来是像一个人在回答,但一眼就能看出来那个答案不对。

针对以上问题,业界提出两种解决方案,但也都不能彻底解决。

6 解决方案

6.1 微调(Fine-tunning)

主要解决专业问题,专业知识库问题,包括知识更新问题。

把这些数据喂给大模型,再做次训练。其实一次训练也无法解决知识感知信息问题,只能更新其数据库。成本较高,因为相当于把你的数据喂给LLM,然后再全量训练一次,成本很高。

适用场景

做一些自有的大量数据的行业模型。所谓行业模型,如某专业领域的公司,积累大量行业数据,如制药公司在制药过程积累大量制药数据,你希望这个数据以AI智能方式指导工作,就可用这种方式。把这些数据喂给大模型,对它再做一次调教。

这就涉及到

MaaS

Module as a Service,模型即服务。通过这个微调在大模型基础上灌入行业数据,实现这种行业模型,适合手里拥有大量行业数据的。

这也只能解决领域数据专业性和知识库更新问题,无法解决操作外部系统、记忆能力、窗口扩张。

6.2 提示词工程(prompt engineering)

通过上下文提示词设计引导。在LLM基础上把这种专业数据通过:

  • Embedding嵌入
  • prompt提示词

这两个工具实现精准的专业回答,同时可实现:

  • 实时系统的感知
  • 操作外部系统
  • 记忆增强
  • 窗口控制扩张

好处明显,无需训练,不用去在LLM上面做训练。

适用场景

适合数据样本较少的场景。

如你有一本书,希望从这本书得到一些信息,但又不想去一个个字读它,你希望有机器人,你问他问题,他直接从书里找答案。这种就能把书的数据作为专业数据,然后嵌入到LLM,再通过prompt方式去引导,得到精确答案。

这过程中间甚至还可把这些答案,和打印机系统连接,直接打印。

小结

两种都可解决大模型问题,但适用场景不同,各自擅长点不一,很多时候,两者结合效果更好。

微调,现在已经把门槛降到很低了,可直接将你想微调的数据upload上去,但闭源大模型还存有数据安全问题,数据所有性问题和成本问题。

而提示词工程适合开源大模型,如chatglm。若在本地部署大模型,再做这种词嵌入和提示词引导,即可实现企业内部的专业行业模型。但底层LLM可能不那么强大,只有个6b、13b,可能在语言组织或一些智能度上稍低。代表就是LangChain。

7 总结

大模型的这几个问题都有,有两套这样的解决方案:

  • Model as aSerivce 模型即服务通过“微调”技术,在LLM基础上灌入行业数据,实现行业模型
  • promptengineering提示词工程,通过上下文提示词设计31号LM输出精确答案

都有自己的优劣点,然后都有自己适用的场景。

所以用啥方案呢?看所需项目的情况,本专栏偏向提示词工程, 即基于LangChain框架的方式。

目录
相关文章
|
19天前
|
机器学习/深度学习 人工智能 人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
260 121
|
15天前
|
人工智能 API 开发工具
构建AI智能体:一、初识AI大模型与API调用
本文介绍大模型基础知识及API调用方法,涵盖阿里云百炼平台密钥申请、DashScope SDK使用、Python调用示例(如文本情感分析、图像文字识别),助力开发者快速上手大模型应用开发。
526 16
构建AI智能体:一、初识AI大模型与API调用
|
15天前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
226 28
|
2月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
640 36
|
29天前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
304 20
|
17天前
|
设计模式 人工智能 自然语言处理
3个月圈粉百万,这个AI应用在海外火了
不知道大家还记不记得,我之前推荐过一个叫 Agnes 的 AI 应用,也是当时在 WAIC 了解到的。
179 1
|
26天前
|
消息中间件 人工智能 安全
构建企业级 AI 应用:为什么我们需要 AI 中间件?
阿里云发布AI中间件,涵盖AgentScope-Java、AI MQ、Higress、Nacos及可观测体系,全面开源核心技术,助力企业构建分布式多Agent架构,推动AI原生应用规模化落地。
161 0
构建企业级 AI 应用:为什么我们需要 AI 中间件?
|
29天前
|
人工智能 算法 Java
Java与AI驱动区块链:构建智能合约与去中心化AI应用
区块链技术和人工智能的融合正在开创去中心化智能应用的新纪元。本文深入探讨如何使用Java构建AI驱动的区块链应用,涵盖智能合约开发、去中心化AI模型训练与推理、数据隐私保护以及通证经济激励等核心主题。我们将完整展示从区块链基础集成、智能合约编写、AI模型上链到去中心化应用(DApp)开发的全流程,为构建下一代可信、透明的智能去中心化系统提供完整技术方案。
172 3
|
28天前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。