根据Google内部资料,Google 雇佣的外包人员正在测试其新 AI 模型 Gemini ,他们会将 Gemini 的回答与 Anthropic 的 AI 助手 Claude 的输出进行对比。
外包人员,需要根据多项指标(例如真实性和冗长程度)对他们看到的每个回答进行评分。
外包人员还注意到,Claude 的安全策略是“最严格的”,它在发现不安全的提示时会拒绝回答,而 Gemini 则在类似场景下做出的回答可能会违反安全规则。
一名外包人员在聊天中写道:“在所有 AI 模型中,Claude 的安全设置是最严格的。”在某些情况下,Claude 会直接拒绝回复其认为不安全的请求,例如扮演不同的 AI 助手。
而在另一个案例中,Claude 选择不回答某个提示,Gemini 的回答则因为包含“裸露和捆绑”而被标记为“严重的安全违规”。
Anthropic 的商业服务条款禁止客户在未经 Anthropic 批准的情况下访问 Claude“以构建竞争产品或服务”或“训练竞争 AI 模型”。
Google还是 Anthropic 的主要投资者。
----------------------
Thu Dec 26 2024 11:54:29 GMT+0800 (China Standard Time)
via Twitter @小互