谷歌使用Anthropic的Claude AI评估Gemini引发行业讨论
最近,科技新闻网站TechCrunch披露,谷歌正在使用Anthropic的Claude AI模型来评估其自身的Gemini AI模型性能,这一举动引发了行业的广泛讨论。以下是关键点:
- 内部文档显示:TechCrunch查看了谷歌内部通信文件,发现Gemini项目的承包商通过对比Gemini和Claude的回答质量与准确性来评估Gemini的表现。
- 安全性和响应时间:在评估过程中,承包商需要在30分钟内判断哪个AI模型提供了更好的答案。据报道,在谷歌的内部平台上进行模型比较时,Claude的回答中明确提到自身,并且在安全性方面比Gemini更加谨慎,有时会拒绝回答被认为不安全的问题或提供更保守的答案。
- 具体案例:一个Gemini的回答被标记为“重大安全隐患”,因为它涉及到了“裸体和束缚”的内容。
Anthropic的服务条款
Anthropic的服务条款明确指出,未经许可不得使用Claude来构建竞争产品或训练其他AI模型。然而,谷歌DeepMind的一位发言人确认,在评估过程中确实会比较不同模型的输出,但否认用Anthropic的模型来训练Gemini。
- Google DeepMind发言人的声明: “按照行业标准实践,我们有时会在评估过程中比较模型输出。但是声称使用Anthropic模型来训练Gemini是不准确的。”
相关背景信息
值得注意的是,谷歌也是Anthropic的主要投资者之一。
总结观点
- 潜在合规问题:谷歌的行为可能违反了Anthropic的服务条款。
- 安全性差异:Claude在安全性方面的表现优于Gemini。
- 澄清与否认:谷歌DeepMind否认使用Anthropic模型来训练Gemini,但确认会进行输出评估比较。
通过此次事件,可以看出AI技术公司之间的竞争不仅仅是产品性能的比拼,还包括安全性和合规性方面的要求。此外,投资者背景也为这类合作带来了复杂的动态。