从去年开始尝试大模型应用,过程混合了兴奋和沮丧。兴奋于可能的效果和想象空间;沮丧于结果的不稳定,大模型时不时出现的幻觉。

最近的体会,问题不仅仅是大模型的底层能力还不够,也因为我对传统软件上的认知习惯,与AIGC产品模式存在冲突。

加法和减法,构建与认知

传统软件是基于规则和逻辑的,If ~ Else, 有异常必然要处理。本质上来说,传统软件是一个现实世界到数字世界的转换器。人类把现实世界的规则转移到数字环境中,清晰明确矫正后,依赖在数字世界中的新规则继续生存。规则和逻辑不断叠加,逐步构建出一个庞大的决策树。

我在刚入行计算机软件的时候,就被前辈教育到,ERP软件对企业最大的帮助,其实是强迫企业梳理出明确的业务规则。

传统软件的终点,是《模拟人生》或者元宇宙。

《模拟人生》很像真实世界,但并不是。《模拟人生》里面的生活规则是显性的,正负反馈都很及时;而现实世界是灰色的,有那么多潜规则,有那么多感性的问题,没法简单被0和1区分,没法都是选择题。

人类都讨厌客服电话中按1,2,3,4的选择,我要选择0,我想跟人说清楚我的需求。

不仅仅是潜规则难以理清,现实世界中的长尾需求太多太多,以至于转换成本过高,得不偿失。就像自动驾驶要解决的corn case没完没了。

最快实现L5的路径,是直接禁止非自动驾驶的汽车上路。

AIGC应用是另外一种模式——依赖大算力和海量数据训练,AI在认识人类和现实世界。

我在写prompt的时候,苦于没有标准的形式,能像命令行那样给到准确地输出。其实我在想用机器的语言与AI沟通,而AI则是在用人类的语言和我沟通。

而AI已经内嵌了丰富的知识和内容生成能力,我们需要做的是精确指挥,即通过精心设计的prompt来“唤醒”AI,提炼出我们需要的答案。

相比传统软件,与ChatGPT对话像是做减法。我给它的设定,其实是在限定它的工作范围,反而能得到更好的结果。

前提是我得知道自己要什么,就像罗丹所说:雕像本来就在石头里面,我只是把不必要的部分去掉。

从认识规则到认识需求

人类对知识以及知识的认知,可划分为四种类型:

  • 我知道 我知道(它)

  • 我知道 我不知道(它)

  • 我不知道 我知道(什么)

  • 我不知道 我不知道(什么)

第一个“知道”是一种认知和意识,awareness ; 第二个“知道”是知识和原料,knowledge。

只要有认知,无论是否具备相应的知识,我可以设计一个执行策略去完成任务。如果我已经具备了这个知识,我就可以自己直接去做;否则我要去学习,或者请人帮助我完成。

具备认知,就有了一定的确定性。传统软件的构建必须建立在awareness的前提下。而且对于确定性的问题,如果已经能够建立起明确的规则,那么用传统软件其实是更好的方式。

但是如果我连认知都没有,我根本不知道自己是否具备相应的知识,我都不知道如何提问,那就无法开展了。

比如说我写了一个PPT,需要将字体调整为宋体,字号为小四,字体颜色为黑,等等,我可以通过快捷键搞定,甚至通过母版/版式批量化完成所有页面。但假如说我希望PPT风格是科技感的,或者说是更模糊的“好看”/“高级”,那PPT本身就很难帮助我实现。

如果有一个AI.PPT的AI应用,比我有更丰富的PPT知识,还能引导我提问,帮助我发现我其实知道的知识,帮助我学习我不知道的知识,那么AIGC的产品就能进入比传统更广阔的应用场景。

我需要做的,则是想清楚对自己来说,到底什么是“科技感”,什么是“好看”。我的需求到底是什么,我的满意度标准是什么。

传统软件与AIGC产品的区别,在于是认识规则,还是认识需求。

像用人一样用AI

当前大模型最常见的应用是构建智能体,基于Agents 搭建工作流。我在字节COZE上做了尝试,效果还不行,但是能看得出来整个框架的思路。

大模型作为能力底座,Bot作为执行体,辅助以可联网的Plugin,本地的Knowledge base和 database,加上控制条件,俨然就是一条完整的工作链路。

无论是简单Bot, 还是带workflow的复杂智能体,写角色定义和技能说明都是关键。prompt的细微差别也会导致明显的输出效果差异。

从程序员转型到管理岗位时,我也曾困惑过是否能放得下编程。后来发现组织团队去实现一个项目,比自己单打独斗要好得多。当时开玩笑说,其实一样是编程的模式,只不过把team member当作程序来用。不同部门就是不同的类,每个人都是一个对象,有的负责底层,有的负责界面,客服就是异常处理。

当年我把人(程序员)当作模块,今天应该是把Bot(智能体)当作人。

大模型就是学校,提供高素质的“人才”,不同模型训练出来的人才能力会有差异。

写角色定义就是写岗位JD,你希望要一个什么样的人;能不能把岗位要求说清楚。

写提示就是写工作要求,你到底要它完成什么任务,哪些应该考虑,哪些不需要考虑,怎样才会让自己满意。

云平台/闭源大模型就是外包公司,把事情说清楚了直接让他们去做。

本地部署开源大模型就是组建自己的团队。高材生进了公司,还得学习内部数据和知识。

如果你清楚自己的业务,知道要招什么样的人,那未来你就能用好AIGC平台和模型。

否则呢,你会需要AIGC产品经理的帮助。

传统软件时代的产品经理,核心是发现业务逻辑规则将其数据化。SAAS软件的底层都是增删改查,区别在于是对象到底有多少属性。只要完成数据层面的抽象,其实可以不关心具体业务表现在怎么样。

AIGC时代的产品经理,核心是发现用户的底层需求和满意标准,找到合适的模型以及模型参数与之匹配。Ta 更像是一个精通业务的HR,帮老板搭建合适的团队。

好奇心和想象力,也许是人的终极价值

智能体对用户的帮助,可以分为三类:助理、分身、导师。

助理empower me, 帮我解决那些长尾琐碎的问题,

分身 duplicate me, 帮我解决时间冲突的问题;

导师 upgrade me, 帮我提升,成为更好的自己。

要让助理有效工作,必须清楚告诉它要干什么;就像把逻辑和规则给到传统软件一样,这样它才能执行任务。

要让分身有效工作,必须清楚我是谁,我的态度,价值观和独有视角,这样它才可以代表我。

要让导师有效工作,必须清楚我要什么,我喜欢什么,我重视什么,我想要成为什么样的人,这样它才可以帮助到我。

智能体当然会大规模地替代人类工作。

库克曾经说,不担心机器越来越像人,更担心人越来越像机器。

但真正的担忧是,当机器能够越来越像人一样思考,普通人是否还能继续独立思考,是否会去积累自己的经验,是否还有好奇心和想象力,而不是过于依赖于人工智能?

对了,好奇心和想象力,这是目前似乎大模型所唯二不具备的品质。

PS,ChatGPT对本文的点评:

本文来自微信公众号:橙竹洞见(ID:gh_013fe5eb0b97),作者:竺大炜

Source

Visited 2 times, 1 visit(s) today
Subscribe
Notify of
guest
0 Comments
Most Voted
Newest Oldest
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x