AI-NEWS · 2024年 11月 11日

八成企业未制定AI危机应对计划

总结分析

近年来,人工智能(AI)的迅速发展为企业带来了许多机会,但其潜在威胁也日益显著。根据最新发布的《下一代风险报告》调查结果显示,80%的受访企业尚未制定针对生成式AI风险的具体计划,包括与AI驱动的网络诈骗相关的安全问题。

主要发现:

  1. 缺乏具体应对计划:调查显示,高达80%的企业没有具体的计划来应对生成式AI带来的风险。这些风险主要包括由AI驱动的安全威胁,如勒索软件、钓鱼攻击和深度伪造等。
  2. 网络安全影响加剧:72%的受访者认为网络安全风险对他们的组织产生了重大或严重的影响,这一比例较去年的47%有显著上升。
  3. 内部与外部威胁:除了外部网络诈骗威胁外,内部使用AI生成营销内容也存在潜在问题。例如,尽管AI在撰写文本方面表现出色,但最终的内容仍需人工编辑以确保其说服力和准确性。此外,依赖AI生成网站内容可能导致负面后果,如谷歌明确表示使用AI内容操纵搜索过程将导致搜索排名下降,严重影响企业的搜索引擎优化(SEO)。

风险管理建议:

  1. 制定全面政策:企业必须确保内部有全面的政策来保护敏感数据并遵守法规。例如,Del Tech首席安全官John Scimone提到他们在生成式AI热潮之前就制定了公平、透明和负责任的发展原则。
  2. 严格措施保障安全:数字营销公司Empathy First Media副总裁Ryan Doser强调了该公司针对员工使用AI的严格规定,包括禁止将客户敏感数据输入生成式AI工具,并要求人工审核AI生成的内容。这些措施旨在提高透明度并建立客户信任。

深度观点

  1. 紧迫性:报告表明大多数企业尚未制定具体计划来应对生成式AI带来的风险。这显示了企业在面对新兴技术时的风险管理能力不足,需要尽快采取行动。
  2. 内外部威胁的平衡:除了防范外部网络攻击之外,内部数据使用和内容审核也需重视。企业应全面考虑各个方面的安全与合规问题,确保整个系统更加稳健。

建议

  1. 制定详细的AI风险管理计划:企业需要尽快制定具体的措施来应对生成式AI的风险。
  2. 加强员工培训和政策规定:通过定期的内部培训和明确的规定来提升员工对AI使用风险的认识,并防止潜在的数据泄露。
  3. 增加透明度与信任:确保所有AI应用过程中的数据安全性和合规性,通过人工审核等方式提高内容准确性和可信度。

这些措施将有助于企业更好地应对生成式AI带来的挑战,避免因网络安全问题而产生的负面影响。

Source:https://www.aibase.com/news/13123