数字安全研讨会举行 人工智能治理模型如何“可信赖”?

发布时间:2024-12-01 07:50:11 来源: sp20241201

   中新网 北京5月23日电(记者 张素)如何重塑人工智能治理模式、确立人工智能治理原则?怎样匹配人工智能政策、程序和标准?怎样开展人工智能风险评估、衡量人工智能治理程序的性能?……这些在人工智能发展过程中出现的议题广受关注。

  “人工智能不是遥不可及的工具,但我们在拥抱技术时,也要考虑其是否有潜在风险,并提前做好管控。”在5月21日举办的以安全运营为主题的研讨会上,与会者如是说。

  此前发布的《人工智能全域变革图景展望:跃迁点来临(2023)》报告显示,人工智能安全治理呈现出趋严、趋紧、趋难三个特征。

  研讨会当日,有业内人士表示,当前人工智能所面临的主要风险,包含隐私和数据安全、算法偏见和歧视、知识产权、虚假信息和深度伪造、人类价值观挑战等。为有效应对这些风险,毕马威中国提出“可信赖的人工智能治理模型”。该模型旨在通过公平性、透明性、可解释性、隐私保护、安全性等维度,评估人工智能在业务应用中的潜在风险,为人工智能赋能企业提供助力。

  此次研讨会上,与会者还表示,随着企业“数智化”转型推进,云计算、移动应用、大数据分析以及人工智能等技术得以广泛应用,需要同步开启网络安全和数据保护的新篇章。

  “在‘数智化’时代,安全运营的重要性日益凸显,它不仅关系到企业的稳定发展,更关系到每一个用户的信息安全。”毕马威中国网络安全和数据保护服务主管合伙人郝长伟说。

  活动现场还发布了“智慧联合  共筑安全运营新格局——企业安全运营解决方案”。据介绍,人们可以利用生成式人工智能技术,协助安全事件监测管理平台提升工作效率,强化决策质量和响应速度。(完) 【编辑:胡寒笑】