AI 公司使用不同方法为聊天机器人添加个性以改进“模型行为”
OpenAI、谷歌和 Anthropic 已经组建了专注于改进“模型行为”的团队,这是一个塑造 AI 系统响应和特征的新兴领域,影响着他们的聊天机器人给用户的印象。这些公司正在塑造他们的模型,使其具有“善良”和“有趣”等特征,同时还执行规则以防止伤害并确保细微的互动,并能将其真正转化为有用的“助手”。OpenAI 产品模型行为负责人 Joanne Jang 说,创造这种行为平衡仍然是一门“持续的科学和艺术”,并指出在理想世界中,模型应该完全按照用户希望的方式运行。Anthropic 的角色训练负责人 Amanda Askell 说:“正如所有人类都必须做到的一样,希望模型也能做到这种微妙的平衡。”
例如,为了避免让模型试图主动改变用户的想法,谷歌希望其 Gemini 模型仅在被问及意见时“以一系列观点做出回应”,而 OpenAI 的 ChatGPT 则被指示“假设一个客观的观点”。 Anthropic 则认为模型不是中立的仲裁者,并为模型加入了特定的“角色训练”,并根据与给定角色的匹配程度对回答进行排名。Anthropic 希望模型具有“相当编辑性”和“哲学性”。当前 AI 系统推理和记忆能力的进步有助于确定更多角色特征。
—— 金融时报
via 风向旗参考快讯 - Telegram Channel
OpenAI、谷歌和 Anthropic 已经组建了专注于改进“模型行为”的团队,这是一个塑造 AI 系统响应和特征的新兴领域,影响着他们的聊天机器人给用户的印象。这些公司正在塑造他们的模型,使其具有“善良”和“有趣”等特征,同时还执行规则以防止伤害并确保细微的互动,并能将其真正转化为有用的“助手”。OpenAI 产品模型行为负责人 Joanne Jang 说,创造这种行为平衡仍然是一门“持续的科学和艺术”,并指出在理想世界中,模型应该完全按照用户希望的方式运行。Anthropic 的角色训练负责人 Amanda Askell 说:“正如所有人类都必须做到的一样,希望模型也能做到这种微妙的平衡。”
例如,为了避免让模型试图主动改变用户的想法,谷歌希望其 Gemini 模型仅在被问及意见时“以一系列观点做出回应”,而 OpenAI 的 ChatGPT 则被指示“假设一个客观的观点”。 Anthropic 则认为模型不是中立的仲裁者,并为模型加入了特定的“角色训练”,并根据与给定角色的匹配程度对回答进行排名。Anthropic 希望模型具有“相当编辑性”和“哲学性”。当前 AI 系统推理和记忆能力的进步有助于确定更多角色特征。
—— 金融时报
via 风向旗参考快讯 - Telegram Channel