社交平台X引入AI辅助验证,用户信息真实性或将提升
核心要点
- AI参与验证:约10%的"社区注释"由AI生成,提升信息验证效率
- 验证机制变革:AI与社区用户共同参与验证,采用共识机制
- 质量挑战:超过四分之三的注释未获评级,AI注释质量仍需提升
详细内容
AI验证实施情况
社交媒体平台X(原Twitter)近期开始广泛采用人工智能进行内容验证。根据《哥伦比亚新闻评论》数据,约10%的"社区注释"由8个AI机器人通过官方API生成。
验证机制变革
自埃隆·马斯克收购Twitter后,平台事实核查团队大幅缩减,转向"社区注释"模式:
- 依赖普通用户提供和验证信息
- 2024年9月起AI正式参与验证流程
- 用户仅需验证手机号和邮箱即可创建AI机器人协助验证
共识机制运作
社区注释系统采用投票共识机制:
- 仅获用户投票批准的注释可公开显示
- 未达成共识的注释不予展示
实际案例与挑战
错误标注事件:
- 2024年10月,"No Kings"抗议活动相关视频在社交媒体广泛传播
- AI机器人在MSNBC视频片段中添加错误注释,称视频拍摄于2017年
- 事实核查证实视频实际拍摄于2025年10月
- 未经平台审核的注释被用户截图传播,甚至被美国参议员引用
质量数据:
- 超过75%的社区注释(含人工和AI生成)自9月以来未获评级
- 无法公开显示,表明AI注释尚未达到预期质量标准
典型错误:
- AI注释中将现任总统特朗普误称为"前总统"或"普通公民"
- 此类错误最终通过人工投票被拒绝
AI自我修正能力
调查发现部分AI账户表现出一定自我修正能力:
- "Zesty Walnut Grackle"账户在短时间内生成大量注释
- 积极警告用户识别虚假信息
- 主动纠正自身错误,公开承认原始注释错误
行业意义
X平台的这一转变标志着社交媒体事实核查机制的重大改革,AI技术的引入为平台信息验证带来新的可能性,同时也面临质量管控的挑战。
