AI失控焦虑终结者,解密Coze如何驯服大语言模型——慢慢学AI147
写在前面
- AI 能控制我们家小爱同学天猫精灵吗?
- AI 的惊人潜力是否正在被不可控的风险吞噬?
- 如何让 AI 从”令人不安的未知”转变为”可靠的生产力工具”?
- 企业如何在 AI 的惊艳与焦虑中找到平衡点?
这些问题不仅困扰着每一个接触 AI 的人,更是企业在 AI 转型过程中必须面对的挑战。本文将通过解析 Coze 的大语言模型编排系统,揭示如何在保持 AI 创新活力的同时,实现企业级的精准掌控。从技术创新到落地实践,为企业 AI 应用提供一个可持续发展的新思路。
前言:失控困境下的希望
AI 能力爆发带来的双重感受:惊艳与焦虑
2022 年底, ChatGPT 横空出世, 将 AI 带入了一个新纪元。短短一年多时间, 我们见证了 AI 能力的指数级提升:
- 理解上: 从简单对话到复杂推理
- 创作上: 从基础写作到跨模态创作
- 专业上: 从通用知识到垂直领域精通
然而, 在这令人惊叹的发展背后, 企业用户却体会到了越来越强的焦虑感。某位企业 AI 负责人这样描述:”就像骑在一匹越来越强壮的野马上, 它能带你跑得更快, 但你却越来越难以控制它的方向。”
企业应用中的典型困境:不可预期性
这种不可预期性主要表现在三个层面:
详细说明 | |
---|---|
输入的不确定 | 同样的提示词, 不同时间得到不同结果 相似的任务, 质量表现差异巨大 无法保证企业所需的标准化输出 |
流程的不可控 | AI 难以理解企业特定规则 知识更新无法及时同步 与现有系统难以协同 |
效果的不稳定 | 简单任务: 效率提升但需要大量审核 复杂任务: 能力提升但错误率不稳定 规模应用: 效果与成本难以预测 |
AI 的创意和泛化能力,对于个人场景来说,大多数情况下是可以被接纳的,甚至是好事。但是在企业环境中,不可控意味着产出失去了优化和复盘的机会。产品品质也就无法得到保障!
那如何做呢?来看看 Coze 是如何做的!
Coze 平台带来的启示:AI 也可以被驯服
就在企业普遍感到困惑的时候, Coze 平台带来了一个重要启示:AI 应用不应该是一场赌博, 而应该是一个可控的工程。通过:
要素 | 细分说明 |
---|---|
能力的边界管理 | - 明确定义 AI 能做什么,不能做什么 - 建立清晰的权限和约束体系 |
流程的可控设计 | - 将 AI 能力模块化 - 实现精确的流程编排 |
结果的可预期性 | - 标准化的输出管理 - 可靠的质量控制 |
这就像是将一匹野马驯化成了一辆汽车。虽然可能失去了一些”惊艳”的表现, 但获得了对于企业来说更重要的东西:可靠性与可控性。
真正的价值不在于 AI 有多强大, 而在于你能在多大程度上驾驭它。
本文将深入探讨如何通过 Coze 平台重获对 AI 的掌控, 让 AI 真正成为企业可靠的生产力工具。
第一章:认清困境 - AI 不可控的本质
让我们从一个简单的实验开始。
向 AI 提出同一个任务:
1 | 写一篇咖啡机测评的文章,重点关注用户体验,800字 |
第一次 | 第二次 | 第三次 |
---|---|---|
在短短 10 分钟内,我们得到了三个完全不同的结果:
- 版本 A:从专业角度深入分析技术参数
- 版本 B:以轻松口吻分享个人使用感受
- 版本 C:从商业视角对比多个品牌
这个看似简单的实验,实际上揭示了 AI 应用中最本质的问题:不可预期性。接下来我看看为什么有这样的不可控性,然后再来看看如何应对!
一、提示词的局限性
1. 相同提示词,不同结果的现象
从图中我们可以看出来,面对我们的意图,AI 会有不同的理解,不断的泛化。我们遇到很多有技术背景的人在理解 AI 的时候,都会套用数据库的理念,想着能匹配数据库中的信息。但是 AI 在技术实现上有很大的不同。总的来说,这种不一致性主要表现在三个层面:
挑战 | 具体表现 |
---|---|
内容差异 | - 关注点不同: 同样的主题,选择的切入角度各异 - 结构不同: 即使是规定了字数,段落组织也大不相同 - 风格迥异: 从专业到轻松,从深入到表层 |
质量波动 | - 深度波动: 有时深入专业,有时流于表面 - 逻辑波动: 有时逻辑严密,有时前后矛盾 - 数据波动: 有时数据准确,有时张冠李戴 |
一致性缺失 | - 概念一致性缺失: 同一概念的不同表述 - 数据一致性缺失: 相同数据的不同解读 - 评价标准不一致: 标准不统一的评价体系 |
因为提示词的局限性,比如带来我们在企业实践中更为复杂的挑战。 |
2. 企业实践中的具体困扰
企业的数字化程度和数字化环境不同,在 AI 实践中面临的挑战自然也很多。大多数企业应用都需要有明确可控的结果。而这波 AI 在企业的很多场景应用中,不可控带来了极其严重的困扰。
哪怕是最需要创意的文稿书写,要达到可用的程序,需要很多次尝试调整,而对于相对比较复杂的任务,比如长文书写,它又面临另外一个问题,需要反复解释背景信息,因为它会忘记。它的记忆并不是和我们想的一样,天然具有巨大的记忆容量。更要命的是,它会带来一致性的问题,如果写小说,可能前面主角嘎了,结果后面又莫名其妙出现了。
这一切都指向了企业无法忍受的质量隐患,以及为此带来的成本,包括审核成本,培训成本。
更大的问题在于,很难做到规模化应用效果,这些都阻碍了 AI 在企业中深度落地的难度。为了应对这些困扰,首先能做的,是做提示词的优化,比如新加坡提示词大赛冠军采用的 CO-START 框架。
关于提示词可以参考 【全方位解析】企业如何通过提示词工程优化 AI 输出,提升市场竞争力
3. 优化提示词的有限效果
这也是目前大多数企业的首选方案,但是实践证明这条路门槛并不低,而且天花板很明显。为了有更好的输出,我们势必要丰富提示词,给它更多的背景资料和信息,在非企业的通用领域,可以通过凝练,精炼,让更精准的表达给提示词“减肥”,但是企业领域提示词膨胀到几千字是很自然的。
随着提示词容量的增大,带来的另外一个问题是维护成本的增高,需要有专人负责维护提示词库(Coze 有解决方案,后面分享),更重要的是因为业务的变化,提示词团队变成“固定编制”。带来的连锁反应还有培训成本的增加。
然而,最后会发现效果提升有限,这些调整最后都抵不过大模型本身的能力。上层的雕花,不是瑕不掩瑜,而恰恰是反过来。
除了提示词的限制,还有一些更重要的问题,我们现在大多数使用 AI 的方式都还是通过对话的方式,我们一直很担心,AI 会不会对我们生活造成影响,AI 会毁灭世界吗?在 GPTs 出来之前,我们认为不能,AI 不会从屏幕里面爬出来!也就是带来关于安全边界的话题!
二、安全边界的重要性
1. AI 天然的”牢笼”:无法直接控制现实世界
这种看似是限制的特性,实际上是 AI 应用最重要的安全保障。AI 和我们的现实世界之间是有隔离的。AI 无法直接操作硬件设备,不能自主访问网络资源,不能修改我们电脑,手机等设备。同样的,也存在数据访问的限制,也就是不能主动获取外部数据。
也有数据存储限制,它不能报错历史会话不能自主学习或者更新。
除了访问和数据,还做了权限的隔离,所有的操作都需要明确授权,无法突破预设的权限范围,不能自主扩展功能。
所有这些措施,旨在给 AI 尚在襁褓之中就套上了牢笼,防患于未然!这些限制也带来了机遇。
2. 这种限制带来的机遇:可控性的基础
正是这些”限制”,为我们构建可控的 AI 应用奠定了基础。
模块化的 AI 能力就像一个个组件,它们拥有明确的边界:清晰的能力范围、可控的操作空间、可预期的结果范围。组件之间通过可靠的接口相互连接,这些接口具备标准化的交互方式、可控的数据流转以及清晰的权限管理。此外,模块化的设计也带来了可控的扩展性:可以按需提供能力、进行精确的授权操作,并且所有操作都有可追溯的记录。这样的设计,既保证了系统的稳定性,又方便了后续的功能扩展和维护。
启示:从困境到机遇
理解了 AI 的这些特性,我们就能看到:
- AI 的不可控性是其生成能力的必然结果
- 但它的”限制”恰恰为我们提供了构建可控系统的基础
这就引出了下一个关键问题:如何在保持 AI 灵活性的同时,实现可靠的控制?这正是我们要在接下来的章节中探讨的核心内容。
第二章:知识的边界 - 从封闭到开放
“为什么 AI 对 2024 年的新产品一无所知?”
“为什么让 AI 回答专业问题时总是答非所问?”
“为什么 AI 不了解我们公司的具体情况?”
这些困惑揭示了一个核心问题:AI 像是生活在一个封闭世界里,它的知识存在着天然的边界。要想真正发挥 AI 的价值,我们首先要理解并突破这些边界。
一、封闭世界的局限
1. 预训练数据的时效性问题
AI 的知识来自训练数据,这带来了几个关键问题。大型语言模型的知识截止日期就像一道封印,模型训练完成后,知识就“冻结”了,无法自动获取最新信息,对新事物、新概念一无所知。如果要更新知识,就需要重新训练模型,这个过程周期长、成本高,难以跟上快速变化的世界。而且,模型输出信息的时效性难以验证,它可能混合使用新旧信息,甚至无法分辨过时的知识。
下图是 google 大模型 Gemini 的知识库时间,曾经有段时间兴起过,刺探大模型的知识库最后时间,看起来还是讳莫如深的。
2. 专业领域知识的缺失
大型语言模型在专业性方面也面临诸多挑战。首先,它的知识深度不足,对专业术语理解有限,对行业规范认知模糊,对专业流程把握不准。其次,它对上下文的理解受限,难以理解专业场景下的含义和需求,无法准确判断专业标准,专业推理能力也比较有限。最后,大型语言模型的跨领域关联能力薄弱,难以建立不同领域知识之间的联系,专业知识难以迁移到新的应用场景,从而限制了它的创新应用能力。
这里比较难把握的是,我们在某个细分领域有沾沾自喜的突破,但是在 AI 训练数据中如果有另外一个行业领军企业的数据,基本就是吊打,降维打击的!
这里的专业领域知识是行业性的,除此之外还有关于企业本身的!
3. 企业特定信息的空白
每个企业都是独特的,但 AI 往往无法理解这种独特性。它存在企业信息盲区,不了解企业具体情况、文化和价值观,不知道企业特有流程和规范,也不懂企业内部使用的专有名词和缩写。由于缺乏对企业特定场景的理解,它难以适应企业具体的应用场景和业务需求,无法理解企业特殊的、个性化的需求,也不懂企业内部的规则和制度。因此,大型语言模型很难提供定制化的服务和解决方案,无法体现企业的特色和风格,常常给出过于通用的回答,缺乏针对性。
这是我们在企业实践过程中遇到非常常见的问题,因为回答过于随大流,好感度直线下降!
我们都知道,对于行业应用来说,know-how 是很重要的。实际上,企业的发展也是类似,会形成很多“黑话”,而这些黑话还有传递效应,就是所谓黑话的衍生和发展,如果选择的大模型理解能力弱点,就只能干瞪眼了!
上面谈了这么多,如何破局呢?我们来看看知识库如何起效!
二、知识库:打开认知的边界
1. 知识注入的机制
知识库就像是给 AI 装上了一个”活字典”。理想的企业知识库需要具备以下关键特性。
- 首先,它应该拥有动态更新机制,支持实时添加和更新信息,能够实时检索最新知识,并且可以根据需求动态加载相关知识。
- 其次,在知识组织方式上,应该采用结构化的方式存储知识,建立语义化的索引方便检索和理解,同时管理知识之间的关联关系,方便知识推理和应用。
- 最后,还需要一个完善的访问控制系统,实现分级的权限管理以保障知识安全,根据不同的使用场景设置访问权限,并建立规范的知识更新流程和审核机制。
这也是国内目前企业 AI 化最快的方式,选择一些合适的企业知识库产品,附上 AI 能力。或者是一些围绕 AI 能力开展的知识库产品。正因为它是很多人想到的落地方案,实践证明,它也有门槛!
2. 企业实践方案
想要有效运用知识库,需要系统性的方法。企业知识管理包含三个核心环节。
- 首先是知识收集,这需要将企业现有的各种文档进行数字化处理,将企业的专业知识、技术规范等进行系统化的整理和记录,并收集和积累员工的经验和智慧。
- 其次是知识组织,需要建立科学的知识分类体系,构建清晰的知识层级结构,方便浏览和查找,并提供有效的知识检索方式,快速定位所需信息。
- 最后是知识应用,要根据不同的应用场景配置相应的知识,将用户需求与知识库内容进行精准匹配,并实现知识的实时调用和应用。
接触过 ERP 系统,都听过非常注明的,”垃圾进,垃圾出”。这对知识管理,对 AI 应用落地同样适用!
我们都知道数据很重要,但是什么是数据,每个人却有不同的理解,实际上我们在企业 AI 咨询和实践过程中,工程量最大的恰恰是数据的清洗和梳理。
即使我们照着最佳实践来落地知识库系统,同样要警惕它的局限性。
3. 效果与局限
基于企业知识库的 LLM 应用取得了显著效果:
- 回答更加精准,更符合企业实际情况;
- 专业度明显提升,更能满足专业场景需求;
- 个性化服务增强,更贴合企业特色。
然而,现实中也存在一些局限:知识更新需要人工干预,效率较低;维护知识库需要投入较高的成本;还需要处理知识冲突和版本管理问题。未来的发展方向包括:探索知识的自动化更新机制;发展智能化的知识管理工具和方法;建立协同化的知识维护机制,提高效率。
RAG 并不能完全解决企业知识库的问题,传统大数据存在的限制现在依然存在!
启示:知识赋能的新思路
打开知识的边界,不是简单地堆积信息,而是要建立一个有生命力的知识生态系统,新一代知识管理的核心是系统思维、动态视角和场景导向。
- 系统思维强调知识的整体性,认为知识不是零散的点,而是相互关联、构成一个有机的整体,需要从系统层面进行知识的管理,而非简单的堆积,并且注重知识的结构化和组织化,使其更易于理解和应用。
- 动态视角强调知识处于不断更新和变化的状态,需要对知识库进行持续的维护和更新,保证其时效性和准确性,重视知识的生命周期管理,从创建到更新到淘汰。
- 场景导向则强调知识最终要服务于实际应用场景,需要根据不同的应用场景对知识进行组织和配置,强调知识的实用性和价值,避免知识的闲置和浪费。
而 coze 给我们提供了一种非常便捷的管理方案。在资源库可以找到不同文件类型的知识库资料
添加方案也很多。
有了知识库,让 AI 有了更高的视角,看起来是有了上帝视角。但是它还只能看,还不能干活!接下来,我们将探讨如何让 AI 不只是”知道”,更要”能做”——这就是从知识到能力的跨越。
第三章:能力的边界 - 从对话到行动
“你知道怎么查询订单状态吗?”
“抱歉,我只是一个语言模型,不能直接查询订单系统…”
这样的对话场景再熟悉不过了。但现在,通过 Function Call(直译为功能调用) 和插件系统,AI 终于可以说:”让我帮您查询订单系统… 您的订单 12345 号将在明天送达。”
这个看似简单的变化,实际上是 AI 应用的一次革命性突破。
一、Function Call 的革命
1. 从”只会说”到”能做事”
让我们通过一个简单的对比来理解这个突破:
传统模式:
1 | 用户:帮我查一下订单状态 |
Function Call 模式:
1 | 用户:帮我查一下订单状态 |
这个转变带来了三个关键改变:
- 从被动解释到主动行动
- 从通用回答到精准操作
- 从空洞对话到实际价值
为了更好理解 coze 在 function call 上所做的努力,我们先从简单的编程来理解这里的伟大之处,也能更好理解,AI 在企业落地中的不同。
2. 编程的确定性
假如我们现在要完成一个功能,输入一个数字 A,输入一个数字 B,得出它们的和 C。比如
1 | A = 3 |
这是非常好理解的一段逻辑,编程可能会这样去实现这个功能
1 | int sum(int a, int b){ |
这里的 sum 就是编程语言里面讲的函数,括号后面的表示它有 2 个输入,return 表示输出。
看起来没毛病,然后我们输入 a = 1, b = ‘AI 决策者洞察’, c=?
这是什么鬼!显然它在数学上不成立,所以编程语言就做了限制,比如输入非数字类型。
通过这样一个简单的例子,我们理解了程序员兄弟的不容易,因为还有很多其他的内容,也正是因为这样,我们数十年来的发展,在编程上反反复复探索的,都是如何在可控的情况下完成复杂的任务。
也正是因为编程所带来这种规范和约束,几十年的发展,整个数字化,信息化的发展,形成庞大的规范体系。
如果它是一个数字,是绝对不可以传文字给它的!这么严格的要求,看到前面关于 AI 这么不靠谱的行为,我们能相信它可以做好这件事吗?
接下来我们看看,曾经去年惊为天人的 GPTs 是如何解决这个问题的(吐槽一下,这玩意几乎没有更新过)
3. GPTs 的创新?打开潘多拉魔盒
说它惊为天人,是因为它提供了一种方案,让 AI 可以调用外部的资源,包括现有各种能力,比如天气预报,地图导航。
而说它是打开了潘多拉魔盒是因为它既然可以调用外部能力,当然也包括打开我家里的小爱同学,天猫精灵。
从上面的截图里面我们可以看到,这里非常重要的是,它能了解到如何去调用这个能力,它能符合我们上面提到的编程的严格定义!
同样的,从这里开始,我们看到了,让 AI 结果可控的一个方向,调用的外部能力(API)结果是可控的,这样一来,我们分解了任务,可以开始有针对性拆解目标了!
从上图看到,它使用这个能力的时候,用到了 2 个信息。
1 | "params": { |
从中我们看到,Function Call 巧妙地结合了两者的优势:
- 用 AI 的灵活性处理用户输入
- 用编程的确定性执行具体操作
我们尝试整理一个 Function Call 的架构层次图如下:
很显然,GPTs 的这种尝试,浅尝辄止,并没有激起多少浪花,直到突然 Coze 开始频繁内卷高速迭代,给所有人一个信号,OpenAI 的神话结束了!GPTs 就是个玩具!我们来看看 Coze 是如何拆解这里的 Function Call 。
二、插件系统:延伸 AI 的触角
1. 内置能力的局限
AI 自带的能力就像一个封闭的圆,包含
- 语言理解和生成
- 基础逻辑推理
- 通用知识问答等。
然而,企业的需求远不止于此,他们还需要 AI 具备
- 系统集成能力
- 专业工具调用能力以及
- 实时数据处理能力
这些都是 AI 内置能力之外的。
如何解决呢?插件!
2. 插件带来的可能
经过近一年的发展,coze 的插件生态日渐完善,涵盖了通用领域的方方面面,在插件能力的加持下,给 AI 带来的极大的能力扩展。官方现在有数百个插件。
除了官方插件,已经有数万个第三方的插件。
对于企业应用而言,单纯的 AI 生成文本是远远不够的。插件让我们看到了 AI 在企业落地更明确的路径:
- 能力扩展
- 系统集成
也因为有了插件的加持,一个智能体,一个 AI 应用,得以快速搭建。比如一个售后管理平台,可以通过下面的插件:
- 订单管理插件
- 物流跟踪插件
- 支付处理插件
- 客户画像插件
实践启示
Function Call 和插件系统的结合,让 AI 真正具备了”能做事”的能力。AI 平台化管理在能力集成、流程管控和扩展维护方面都具有显著优势。
- 能力集成方面,它可以与现有系统无缝对接,避免数据孤岛,保持统一的用户体验,降低学习成本,并实现 AI 能力的复用,提高开发效率。
- 流程管控方面,通过标准化的接口定义,方便不同系统之间的集成和调用;清晰的权限管理保障 AI 能力的安全使用;完整的日志追踪方便问题排查和审计。
- 扩展维护方面,模块化的能力组织方便扩展和维护;支持灵活的功能扩展,满足不断变化的业务需求;便捷的版本管理方便回滚和升级。
这些突破为我们带来了一个重要启示:AI 的价值不仅在于”懂得多少”,更在于”能做多少”。在下一章中,我们将看到 Coze 平台是如何把这些能力有机地组合起来,构建完整的 AI 应用解决方案。
第四章:掌控的艺术 - Coze 的创新
“如果说传统的 AI 应用像是在驾驭一匹烈马,那么 Coze 就像是在驾驶一辆性能车 —— 你不仅知道每个按钮的作用,还能精确控制它的每个动作。”
Coze 平台的创新,正是为了解决一个核心问题:如何让企业真正掌控 AI 的力量?那就是大模型编排系统!
详细信息参考 【干货分享】AI 开发者必学!掌握 Coze 工作流核心技能的全攻略!, 里面有 coze 工作流的基础入门资料。
一、大模型编排系统
如果没有接触过 coze 或者类似的平台,可能会以为,大模型就一个,其实不然,所谓百模大战,基本上大家都找到了自己的生态位,每家模型都在找自己的定位,能力上自然也各有千秋。我们在实际落地企业 AI 之前,需要对这些大模型有一个基本的了解和认知,才能更好实现我们的业务需求。
1. 不同模型的特点与优势
推理能力 | 性价比 | 多模态 |
---|---|---|
通义千问-Max 的特点:
- 推理能力和文本能力领先
- 支持高达128K长文处理
- 文本生成速度表现出色
- 支持端到端大模型功能
豆包系列的优势:
- Pro版本分视觉和通用两条线
- Lite版本性价比突出,速度快
- 角色扮演和多角色对话出色
- 支持32K以下文本处理
其他模型特性:
- 百川-4:Baichuan4代架构,32K上下文支持
- abab6.5s:支持245k长文本,文本能力强
- 智谱-4:GLM-4新一代底座,性能稳定
- Kimi:专注智能助手场景,对话体验好
这里只是简单介绍了对这些大模型的说明,实际企业落地过程中,还需要有调整和调优。
2. 编排的原理与方法
Coze 采用模块化设计,将复杂的工作流程拆分为多个独立的模块,每个模块负责特定的任务。这种设计使得工作流的构建和维护更加灵活和高效。我们大致给 coze 工作流分了这样几个部分的节点
此外,Coze 提供直观的可视化编排界面,用户可以通过拖拽组件的方式,轻松构建和调整工作流程。无需编写代码,即可实现复杂的业务逻辑。
为了降低复杂度,coze 还提供了流程嵌套的做法,这和大型企业使用 BPM 有着异曲同工之妙。
企业咨询落地 AI,势必会带来流程重塑,才有可能带来最大的商业价值。
二、能力模块化
从上面大模型编排系统,我们已经得到了重要启示,如果让 AI 可控,非常有效的手段是拆解任务,让能力模块化,通过 coze 工作流中提供的各种节点,分解拆解,如果有复用价值的功能,可以做成工作流的方式供其他智能体使用,有效整合企业内部资源。
对于企业来说,沉淀下来的智能体是公司非常重要的数字财富,可以放到工作流或者插件中,最大程度保护企业资产,平衡功能和安全性。总结起来:
- 基础能力封装
- 核心能力集
- 标准接口定义
- 性能优化
- 场景化组合
- 场景模板
- 快速定制
实践启示
Coze 平台的创新,为企业提供了一个完整的 AI 应用解决方案:
全方位掌控
- 模型选择的掌控
- 知识体系的掌控
- 能力边界的掌控
灵活性与确定性的平衡
- 保持 AI 的创造力
- 确保结果可预期
- 控制成本效益
可持续发展
- 便于维护更新
- 易于扩展增强
- 支持持续优化
在下一章中,我们将通过具体的实施指南,看一下 coze 工作流中的大语言模型节点如何使用。
第五章:实践指南 - 从理论到落地
“再好的理论,如果落不了地,就只是空中楼阁。”
在理解了 Coze 的创新之后,最关键的问题是:如何将这些创新转化为实实在在的生产力?本章将为您提供一个实用的落地指南。
为了理解下面的内容,可以打开 https://coze.cn 以后,随便建立一个智能体看看效果。
打开以后,用 AI 创建就可以了,简单快速上手:
一、提示词管理
coze 智能体的编辑界面上有最基础的人设和回复逻辑,这里现在提供实际上提供了提示词管理的入口。
通过这里的提示词库,就可以维护自己的提示词模板,不用另外记录在其他地方了。方便维护更新和使用。同样在资源库里面也可以看到,这个能力。
也可以基于里面的模板,构建适合企业自己的提示词。
二、提示词生成和优化
右上角,有个优化的按钮,它可以用来生成提示词。我们不用去考虑提示词的各种框架和规范了,只有特别情况下,需要去折腾这玩意!
同样的,也可以对提示词做微小调整
三、function call(功能调用)
前面我们提到过,不同模型,能力不同,而豆包有专门为 function call 优化过的大模型,如果我们的提示词是希望有准确的调度,建议选择这类大模型。
你可能已经注意到,左边的“人设与回复逻辑“中,有蓝色字体,那就是 coze 吊打 gpts 的能力。
前面我们提到过,我们一段文字告诉 AI,让它在什么情况下要调用这个外部能力,经常会失效,但是在豆包工具调用模型下,如果识别到这种标记,就一定会调用这个能力(插件或者是工作流等)!
接下来我们重点介绍 coze 的大语言模型节点(一个节点顶 openai 的 gpts 全部!)
四、大语言模型节点
随便创建一个工作流,通过添加按钮,我们就可以给它加上大模型节点,如图
这里的技能可以是工具也就是插件,工作流和知识库。也就是这样一个节点,几乎具备了一个完整应用的雏形。
通过技能右边的 + ,我们添加各种技能。
加上技能以后。如何调用呢? function call !
作为节点,它有输入和输出,和其他 coze 节点一样,可以把它前面所有节点的输出,作为输入。下面这个案例是根据心情,生成歌词和音乐,以及配图的智能体,
提示词的生成参考上面的内容,让 coze 自动帮我们生成,如果里面涉及输入变量,就用 的方式包裹即可,可以参考历史文件。
系统提示词和用户提示词有什么区别和关联。大部分情况下我们不用去区分,都放在系统提示词里面也可以,如果严格一些界定大概是这样的
- 系统提示词:作用类似于人设,每次自动注入,对用户不可见
- 你是一个专业的医疗顾问
- 用户提示词:相当于用户实际发送的对话内容,用户可见
- 我最近胖得厉害,该怎么办?
更复杂一些,可以要求大语言模型节点输出多个变量,方便后续使用。
结语:可控的未来
通过前面的分析和解读,我们理解了为什么 coze 让我们对 AI 有了掌控感,通过工具调用结合 AI 本身的创意能力,为企业提供了无限的可能。我们知道很多企业还在官网,有焦虑又无可缓解,有激动又不得法。不妨就从 coze 开始。