7月26日讯,近期微软遭遇的大规模蓝屏事件,不仅震撼了科技界,也促使社会各界对技术稳定性与安全性进行了深刻反思。这一事件警示我们,在即将到来的AI时代,若类似的技术故障重演,其潜在影响与损失或将更为严峻。
在此背景下,中国人工智能产业发展联盟(AIIA)安全治理委员会于近日举办的成果发布会上,AIIA秘书长、中国信通院院长余晓晖强调,面对人工智能安全治理的紧迫任务,需集行业之力,共同构建和完善人工智能安全风险识别体系,确保风险识别的敏捷性与精准度,以便及时发现并应对潜在威胁。同时,他呼吁加强人工智能安全评测技术的研究与应用,以技术手段解决技术难题。
AIIA安全治理委员会已深入探索人工智能治理框架、风险管理、内生安全及安全应用等多个维度,力求在理论和技术层面为AI安全保驾护航。会上,正式启动了“人工智能安全守护计划”,旨在通过AI Guard品牌,建立AI系统情报共享及AIGC真实性与可信赖性互认机制,并推动人工智能相关保险产品的开发,全方位提升AI技术服务提供方与使用方的安全防护能力。
此外,中国信通院人工智能所黑一鸣博士展示了自主研发的大模型安全加固解决方案。该方案创新性地采用模型微调与外挂安全知识库等策略,在保持大模型原有性能与效率的同时,显著增强了其对抗各类诱导攻击的能力,为AI安全加固提供了新思路。
值得注意的是,人工智能的跨界融合特性日益显著,这既是其发展的动力,也对法律与规范提出了更高要求。中国法学会网络与信息法学研究会副秘书长刘金瑞指出,法学界在应对AI挑战时,需深入了解技术特性,以确保所制定的规范和规制措施既符合逻辑又具实操性。
北京市金杜律师事务所合伙人宁宣凤律师则透露,国家层面正逐步推进针对人工智能的小切口立法,涵盖深度合成、算法、AIGC等多个领域,并探索科技伦理审查等制度建设。她进一步透露,专门的“人工智能法”也正在紧锣密鼓的制定之中,预示着我国在AI治理领域的法制化进程正加速推进。
-
AI
+关注
关注
87文章
30728浏览量
268872 -
人工智能
+关注
关注
1791文章
47183浏览量
238209
发布评论请先 登录
相关推荐
评论