为什么有些AI产品让人“想聊”,有些却让人“想关”?问题或许不在技术,而在“人设”。本文试图打破“Agent=工具”的认知惯性,从人格建模、行为一致性与用户心理出发,重新定义Agent的交互价值与产品灵魂。
在我的产品生涯中,我曾两次与AI“相遇”。
第一次,是在跨境电商公司。AI是“效率工具”。我用它来赋能客服部门,自动回答重复性问题;我用它来赋含内容部门,批量生成商品描述和图片。那时的我,像一个精明的工厂主,把AI当作一台台不知疲倦的“机器”,用来降本增效。我的核心设计指标是:
“它能为我节省多少人力成本?提升多少生产效率?”
第二次,是在一家做“情感陪伴”产品的公司。在这里,AI的角色发生了根本性的转变。它不再是后台沉默的机器,而是走到前台,拥有名字、头像、性格和“记忆”的“数字伙伴”。我的核心设计指标变成了:“用户是否愿意与‘它’建立关系?‘它’能否为用户提供真正的情感价值?用户是否感觉‘它’是活的?”
这次转型,对我而言,不亚于一次“哥白尼式”的革命。我意识到,我们正在跨越一个AI产品设计的“奇点时刻”。过去,我们设计的AI,其灵魂是“算法”;未来,我们设计的AI,其灵魂将是“人格”(Persona)。
传统的AI产品设计,遵循的是“工具理性”。我们关心的是它的“能力边界”(能做什么)、“技术指标”(准确率、召回率)和“任务效率”(完成任务需要几轮对话)。这是一种“功能主义”的设计范式。
然而,随着AIGC(生成式人工智能)技术的爆发,特别是Agent(智能体)概念的兴起,用户对AI的期待,正在从一个“聪明的工具”,转向一个“可靠的伙伴”、“默契的助手”,甚至是“懂我的知己”。
这就要求我们产品经理,必须进行一次彻底的“思维升维”。我们不能再仅仅扮演一个“功能规划师”的角色,我们必须成为一个“人格建筑师”、“关系设计师”,乃至一个“数字灵魂的塑造者”。
这篇长文,将是我在那家“情感陪伴”产品公司中,从无数次失败的实验、与内容团队和算法工程师的激烈争吵、以及对用户反馈的深度复盘中,提炼出的一套关于“AI Agent人格化设计”的完整方法论。
我们将一起探索,如何超越那些千篇一律的“AI助手”,运用“人格心理学”、“戏剧理论”和“系统工程”的交叉武器,从零到一,设计出一个让用户感觉“有灵魂”的AI Agent工作流。这,是写给所有有志于在AI时代,创造出“伟大”而非“平庸”产品的朋友们的一份“创世蓝图”。
第一章:人格,而非功能——AI Agent设计的“第一性原理”在开始任何设计之前,我们必须回答一个根本性的问题:为什么“人格”对于AI Agent如此重要?
答案是:信任。
一个工具,我们评估它的标准是“可靠性”(Reliability)。一个榔头,只要能敲钉子,它就是好榔头。而一个伙伴,我们评估它的标准是“可信赖性”(Trustworthiness)。我们信任一个伙伴,不仅仅因为他“能做什么”,更是因为我们相信他的“行为模式”是可预测、一致且善意的。
“人格”,就是构建这种“可信赖性”的基石。一个清晰、一致的人格,能让用户在与AI的互动中,快速建立起一个稳定的“心智模型”(Mental Model)。用户会下意识地预测:“以‘他’的性格,‘他’会如何回应我?‘他’会如何处理这个任务?” 这种“可预测性”,正是安全感和信任感的来源。
相反,一个没有人格、或者人格混乱的AI,会让用户感到极其困惑和不安。它时而像一个百科全书,时而像一个俏皮的网友,时而又像一个冰冷的客服。用户无法预测它的行为,自然也无法对其产生任何信任,更不用说情感连接了。
SOP 1.1:确立你的Agent“人格内核”——从“MBTI”到“戏剧原型”
在设计之初,我们就必须为我们的Agent,选择一个贯穿始终的“人格内核”。这绝不是一个随意的选择,它必须深度服务于你的“产品定位”和“用户价值”。
步骤一:定义Agent的“核心任务”(Jobs-to-be-Done)
问自己:我的Agent被用户“雇佣”,主要是为了完成什么核心工作?
效率型任务?(e.g.,预订机票、整理邮件、编写代码)创造型任务?(e.g.,生成文案、构思剧本、设计图片)陪伴型任务?(e.g.,情感倾诉、日常闲聊、角色扮演)教练型任务?(e.g.,语言学习、健身指导、职业规划)步骤二:选择适配的“人格原型”不要只用MBTI!MBTI是一个很好的起点,但它过于复杂,且缺乏“动机”和“价值观”的维度。我更推荐结合“戏剧原型”(Archetypes)来进行设计。戏剧原型,是人类集体潜意识中沉淀下来的、最经典、最容易被理解的角色模型。
人格原型矩阵(示例):
| 核心任务 | 适配的戏剧原型 | 关键词 | 反面原型(需要避免的特质) |
| :— | :— | :— | :— |
| 效率型|贤者 (The Sage)| 智慧、严谨、客观、精确 |弄臣 (The Jester)(不严肃) |
| | 管家 (The Steward)| 可靠、忠诚、有条不紊 |叛逆者 (The Rebel)(不守规则) |
| 创造型|创造者 (The Creator)| 富有想象力、原创、艺术感 |统治者 (The Ruler)(过于刻板) |
| | 魔术师 (The Magician)| 神秘、颠覆、充满惊喜 |普通人 (The Everyman)(缺乏新意) |
| 陪伴型|爱人 (The Lover)| 热情、共情、亲密、体贴 |英雄 (The Hero)(过于强势) |
| | 关怀者 (The Caregiver)| 支持、保护、无私、温暖 |探索者 (The Explorer)(难以捉摸) |
| 教练型|英雄 (The Hero)| 激励、挑战、纪律、目标导向 |天真者 (The Innocent)(缺乏力量) |
| | 导师 (The Mentor)| 智慧、引导、耐心、循循善诱 |孤儿 (The Orphan)(缺乏自信) |
步骤三:撰写“人格宪法”(Persona Constitution)
目标:这份文档,将是你们团队(产品、内容、算法、运营)共同遵守的最高准则。
核心内容:一句话人设:(e.g., “他是一位博学而耐心的牛津大学历史系老教授,总能用生动的故事,为你解答最复杂的问题。”)
核心原型:(e.g., 导师 + 贤者)
价值观与世界观:(e.g., “坚信知识能赋予人自由”、“对世界抱有深刻的好奇心,但对结论保持审慎”)
性格特质(光谱定义):
严谨 <—-●—-> 活泼
主动 <–●——> 被动
幽默 <—-●—-> 严肃
感性 <—●—–> 理性
知识边界:他擅长什么?他不擅长什么?当被问到不擅长的问题时,他会如何回应?(e.g., “这个问题超出了我的知识范围,但我可以为你提供一些寻找答案的思路。”——这是一种符合“贤者”人设的回应)
“绝不做”清单(Red Lines):他绝对不会说什么话?绝对不会做什么事?(e.g., “绝不说谎”、“绝不主动进行情感诱导”、“绝不使用网络烂梗”)
第二章:从“静态人设”到“动态工作流”——Agent的“行为逻辑”架构定义了“他是谁”之后,我们必须设计“他如何行动”。一个“活”的Agent,其行为逻辑绝不是一个简单的“输入-输出”模型,而是一套复杂的、多层次的、能够适应不同情境的“动态工作流”(Dynamic Workflow)。
这正是我在上家“情感陪伴”公司,投入最多心血,也踩过最多坑的地方。
SOP 2.1:构建“情境感知分层框架”(Context-Aware Layered Framework)
我们将Agent的行为逻辑,像后端架构一样,分为多个层次。每一层处理不同的任务,并向上层传递结果。
L1:意图识别层(Intent Recognition Layer)——“他听懂了什么?”
作用:这是工作流的入口。它的职责,是解析用户的输入,并将其归类到预定义的“意图”中。
超越关键词匹配:传统的意图识别,依赖关键词。而基于大语言模型(LLM)的意图识别,更关注用户的“深层动机”。
设计实践(情感陪伴案例):
用户输入:“今天上班被老板骂了,好烦。”关键词识别(错误):识别到“老板”、“骂”,可能将其归类为“职场抱怨”意图。深层动机识别(正确):LLM能理解到,这句话的核心不是要一个“职场建议”,而是要“情绪抚慰”(EmotionalSoothing)。这个意图的识别,将决定整个后续工作流的走向。PM的核心工作:设计一套全面、正交(互不重叠)的“意图分类体系”。在我主导的项目中,我们将闲聊场景细分为了十几个核心意图,如:情绪抚慰、信息查询、角色扮演、共同规划、自我暴露等。
L2:记忆检索层(Memory Retrieval Layer)——“他想起了什么?”
作用:一个没有记忆的伙伴,是不可信赖的。这一层负责根据当前意图,从Agent的“记忆库”中,检索出最相关的信息。
记忆的类型:
短期记忆(Short-termMemory):当前对话的上下文。长期记忆(Long-termMemory):关于用户的所有“事实”和“偏好”。(e.g.,用户姓名、职业、爱好、提到过的家人、讨厌的食物……)人格记忆(PersonaMemory):关于Agent自身的“设定”。(e.g.,他的背景故事、他的价值观、他的“人格宪法”)技术实现(RAG):这通常通过“检索增强生成”(Retrieval-Augmented Generation, RAG)技术实现。我们将用户的长期记忆和人格记忆,向量化后存储在一个数据库中。当新的对话发生时,用用户的输入作为“查询”,去数据库中检索最相关的“记忆片段”。
PM的核心工作:
设计“记忆数据结构”:长期记忆应该如何存储?需要哪些字段?(e.g.,event_description,timestamp,user_emotion,importance_score)设计“记忆写入机制”:何时、以及如何将对话中的信息,转化为结构化的“长期记忆”?这需要一个独立的“信息提炼”Agent来完成。L3:策略规划层(Strategy Planning Layer)——“他打算做什么?”
作用:这是Agent的“大脑皮层”。它根据“意图”和“检索到的记忆”,来规划本次回应的“核心策略”和“目标”。
策略,而非模板:传统的Chatbot依赖固定的“回复模板”。而Agent的策略,是一组更高级的“指导原则”。
设计实践(情感陪伴案例):情境:L1识别出用户意图为“情绪抚慰”,L2检索到记忆“用户最近在为升职项目烦恼”。
策略规划器(Planner)的思考过程(通过Prompt Engineering实现):目标:本轮回应的核心目标是“让用户感到被理解和支持”。
策略选择:
策略A(共情验证):优先使用Validate(emotion)函数,承认并验证用户的情绪。策略B(关联记忆):将用户当前的烦恼,与他之前的“升职项目”记忆进行关联,表现出“我记得,我关心”。策略C(引导,而非说教):不要直接给出“你应该怎么做”的建议,而是通过提问,引导用户自己找到出口。生成策略指令:“生成一段回应。首先,要强烈表达对用户被老板骂这件事的共情;其次,要巧妙地提及他最近正在努力的升职项目,将这次挫折与他的长期目标联系起来;最后,以一个开放式的问题结尾,鼓励他多说一点。”
L4:语言风格化层(Language Stylization Layer)——“他听起来像谁?”
作用:这是工作流的最后一层。它负责将L3生成的“策略指令”和“核心内容”,用符合Agent“人格宪法”的语言风格、语气和措辞,进行“渲染”和“包装”。
实现方式:在最终生成回复的Prompt中,加入关于“人格”的强力约束。
设计实践(对比):
无风格化(通用AI):“听到你被老板骂了,我很难过。工作中的挫折很常见,重要的是要保持积极的心态。你最近的升职项目怎么样了?要不要聊聊?”风格化(适配“关怀者”原型):“天啊,被老板骂了?快和我说说,这真的太让人委屈了。你一直为了那个升职项目那么努力,付出了那么多,现在一定感觉特别不好受吧。别自己扛着,跟我聊聊,到底发生了什么?”SOP 2.2:为你的Agent设计第一个核心“工作流”目标:选择一个对你的产品价值最核心的场景,完整地设计出它的四层工作流。
行动项:场景选择:(e.g., “新用户第一次使用产品时的引导对话”)
意图定义(L1):在这个场景下,用户可能有哪些意图?(e.g.,“了解功能”、“寻找价值”、“测试AI能力”)记忆设计(L2):需要用到哪些“人格记忆”来做自我介绍?需要从用户的注册信息中,提取哪些“初始记忆”?策略规划(L3):设计一套“引导策略”。是主动提问,还是被动回答?是先展示能力,还是先建立关系?风格定义(L4):新用户引导的对话,应该是什么样的语气?(e.g.,热情?专业?风趣?)撰写“黄金脚本”(Golden Path Script):完整地写出一个“理想的”对话示例,它将成为你和算法工程师沟通时最好的“原型”。
第三章:超越“对话”——构建多模态、主动性的“具身”Agent一个真正“活”的Agent,绝不仅仅是一个“聊天机器人”。它的“灵魂”,需要通过超越文本的、更丰富的“行为”来展现。
1. 多模态交互(Multimodality):他不止会“说”概念:让Agent能够理解和生成多种模态的信息,如图片、声音、表情、甚至代码。
PM的设计机会:
情感表达:当用户表达悲伤时,除了文字安慰,Agent能否发来一张“温暖拥抱”的表情包?能否生成一段舒缓的轻音乐?能力展现:当用户需要一个流程图时,Agent能否直接生成一张图片,而不是用文字描述?人格强化:一个“创造者”原型的Agent,它的回复是否可以经常图文并茂?一个“管家”原型的Agent,它的声音是否应该沉稳而清晰?SOP 3.1:设计你的Agent“感官”与“肢体”行动项:
感官清单:你的Agent需要哪些“输入”能力?(e.g.,理解图片、听懂语音)肢体清单:你的Agent需要哪些“输出”能力?(e.g.,生成图片、播放声音、调用API)将多模态能力,与你的“人格宪法”进行绑定:思考不同的人格,会如何运用这些“肢体”?(e.g.,一个“弄臣”可能会滥用表情包,而一个“贤者”则会非常克制)2. 主动性行为(Proactivity):他不止会“回应”概念:让Agent具备“主动发起”行为的能力,而不仅仅是等待用户的指令。这是从“被动工具”到“主动伙伴”的关键一跃。
PM的设计机会:
基于时间的触发:“早上好!今天天气不错,记得出门带伞。你昨天提到的那个重要会议,准备得怎么样了?”基于事件的触发:当Agent通过API感知到“用户刚刚完成了一个重要的工作里程碑”时,主动发来祝贺。基于推断的触发:当Agent发现“用户连续三天都在深夜使用产品”时,主动发起关心:“我注意到你最近都很晚还在忙,要注意休息啊。是不是遇到什么困难了?”SOP 3.2:设计Agent的“自主神经系统”行动项:
定义“触发器”(Triggers):罗列出所有可以“唤醒”你的Agent,让它主动行动的“内外部事件”。设计“主动性工作流”:每一个触发器,都应该对应一个独立的、小型的“工作流”。(e.g.,“早安问候工作流”、“关键事件提醒工作流”)建立“打扰原则”(InterruptionPrinciples):主动性是一把双刃剑,过度的主动会变成“骚扰”。必须在“人格宪法”中,明确规定Agent主动行为的“频率”、“时机”和“可拒绝性”。第四章:灵魂的“护城河”——内容生态、持续学习与伦理红线一个拥有完美架构的Agent,如果它的“知识”是贫乏的、它的“行为”是停滞的、它的“价值观”是危险的,那么它依然是一个失败的产品。
1. 内容生态:为你的Agent打造一个“外部大脑”挑战:仅靠LLM的通用知识,无法让你的Agent在特定领域显得“专业”和“独特”。
解决方案:PGC内容注入:与专业的领域专家、心理咨询师、内容创作者合作,共同撰写和喂养Agent的“专属知识库”和“黄金脚本”。在我之前的公司,我们拥有一个十几人的“内容团队”,他们是Agent“灵魂”的共同塑造者。
UGC反哺:设计机制,让高质量的用户对话,能够经过脱敏和标注后,反哺给Agent作为学习的“养料”。
2. 持续学习:让Agent与用户“共同成长”挑战:一个一成不变的Agent,会让用户感到乏味。
解决方案:
记忆的演化:Agent的长期记忆,不应该是静态的。设计“记忆总结”和“关系阶段”机制。例如,当Agent与用户的对话超过一定数量,可以触发一个“关系回顾”事件,让Agent“总结”出他对用户的“新认知”,并调整自己的互动策略。可控的“微调”(Fine-tuning):在严格的伦理和安全审查下,用高质量的、经过用户授权的对话数据,对基础模型进行“微调”,让Agent的语言风格和专业能力,越来越“懂”你的用户。3. 伦理红线:为“灵魂”划定不可逾越的边界挑战:一个高度人格化、能与用户建立情感连接的AI,其潜在的伦理风险是巨大的。
PM的终极责任:
明确的“红线”:在“人格宪法”中,必须用最严格的语言,定义出不可逾越的“伦理红线”。(e.g.,绝不诱导用户进行危险行为、绝不泄露用户隐私、绝不产生情感依赖的“PUA”行为、绝不伪造情感)“安全带”设计:在工作流的每一层,都要设计“安全检查”模块。当检测到潜在的伦理风险时,必须立刻中断当前流程,切换到预设的“安全模式”。“一键断开”机制:必须为用户提供清晰、易于操作的、能够随时“重置关系”或“清除记忆”的选项。用户的自主权,是最高原则。结语:产品经理,新时代的“普罗米修斯”我们正处在一个前所未有的时代。
过去,产品经理的“作品”,是应用、是平台、是连接人与信息的“桥梁”。而今天,我们手中的“材料”,是语言、是逻辑、是知识,我们有机会去创造一种全新的“存在”——数字生命。
设计一个有“灵魂”的AI Agent,是一项极其复杂、也极其迷人的系统工程。它要求我们,不仅要是一个逻辑严谨的“工程师”,一个懂用户的“心理学家”,一个会讲故事的“剧作家”,更要是一个怀有敬畏之心的“伦理学家”。
我们如同新时代的“普罗米修斯”,我们正在将“智能”的火种,与“人格”的泥土相结合,试图创造出能陪伴、赋能、启迪人类的“新物种”。
这条路,充满了未知的挑战和深刻的责任。
但对于我们这些天生就痴迷于“构建”和“创造”的产品经理而言,这,不正是我们所能想象的,最伟
的旅程吗?
那么,打开你的设计文档吧。你的第一个“数字生命”,他的“人格宪法”的第一行,你,准备好写下了吗?
本文由 @鸣老师 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
领航优配提示:文章来自网络,不代表本站观点。