|
AI复合性风险是指人工智能在发展和应用过程中带来的多种相互关联、相互影响的安全风险,包括供应链漏洞、敏感信息泄露、训练数据投毒、内容安全风险、算力恶意损毁、提示词操纵等。系统性思维则是将对象作为一个系统,从整体出发,综合考虑系统内各要素及其相互关系,以实现整体最优的思维方式。以下是一些以系统性思维应对AI复合性风险的具体措施:1. 构建体系化安全能力:必须构建更加灵活、智能、协同的安全体系。这需要将安全能力建设全方位融入产品研发、运营管理、数据流通等各环节,推动安全防护模式从“被动响应”向“主动防控”升级,形成统一高效、协同联动、动态演进的内生安全体系。2. 进行技术创新:通过技术手段来应对AI复合性风险,如加强人工智能安全算法的研发,提高模型的安全性和鲁棒性;开发人工智能大模型安全攻防与评估平台,如“灵御”,对人工智能系统进行实时监测、评估和防御;利用加密技术、区块链技术等保障数据的安全和隐私。3. 推动运营创新:重塑安全运营模式,打破“缺啥补啥、低价中标”的被动建设模式,建立主动、持续的安全运营机制。加强对人工智能系统的日常监测和管理,及时发现和处理安全漏洞和风险;建立安全事件应急响应机制,在发生安全事件时能够快速响应和处理,降低损失。4. 加强生态创新:重塑生态合作模式,促进产业链、创新链、价值链深度融合,推动网络技术与国际互通、标准互认、信任互建。企业、科研机构、政府部门等各方应加强合作,共同开展人工智能安全技术的研究和应用;积极参与全球网络安全治理与规则制定,推动构建更加公平合理的网络空间治理体系。5. 完善政策法规与标准体系:政府应制定和完善相关的政策法规,明确人工智能发展的安全边界和规范,加强对人工智能应用的监管;推动人工智能安全标准的制定和推广,规范人工智能系统的设计、开发、测试和评估等环节,提高人工智能系统的安全性和可靠性。6. 培养专业人才:AI复合性风险的应对需要具备跨学科知识和技能的专业人才,既懂人工智能技术,又了解网络安全、法律、伦理等方面的知识。高校和培训机构应加强相关专业的设置和课程建设,培养适应人工智能时代需求的专业人才;企业应加强对员工的安全培训,提高员工的安全意识和应对风险的能力。7. 提升公众意识:通过宣传教育等方式,提高公众对AI复合性风险的认识和理解,增强公众的安全意识和自我保护能力。让公众了解人工智能可能带来的风险,如隐私泄露、虚假信息传播等,引导公众正确使用人工智能产品和服务。
|
|