文章重写如下:
题目:企业需承担保障人工智能安全的主体责任
作者:陈兵,南开大学竞争法研究中心主任、法学院副院长
图片:
在2024年世界互联网大会乌镇峰会上,“安全”成为备受瞩目的话题之一。随着人工智能技术的飞速发展,其在自动驾驶、医疗、金融等关键领域的应用日益广泛,同时也带来了前所未有的安全挑战。
在自动驾驶领域,车辆与外部环境的复杂交互以及对实时数据处理的高度依赖,使得传感器故障、通信中断、恶意软件入侵等风险更加突出。医疗领域中,人工智能模型训练数据的准确性和完整性至关重要,一旦数据出现问题,可能导致严重的医疗事故。金融领域则面临着智能算法的黑箱特性带来的潜在风险,以及网络诈骗手段的不断升级。这些挑战与传统信息技术安全问题相比,更加复杂且影响深远。
为应对人工智能技术的快速发展所带来的多方面安全挑战,我们可以利用人工智能自身的技术特性来增强安全性。例如,采用量子加密等先进技术提高加密强度,利用人工智能算法进行智能检测以快速发现并修复系统漏洞,以及研究对抗生成网络等技术提高系统对恶意攻击的抵御能力。
企业在开发和应用人工智能产品与服务时,应承担起保障数据安全、确保算法公平公正、进行充分的安全测试等安全责任。为建立有效的内部安全管理体系,企业应从完善安全制度、加强员工安全培训、设立安全监督岗位等方面入手,并定期进行安全评估和风险预警。
中国人民大学校长林尚立在会上表示,应构建人工智能安全治理的政策法规和制度体系,持续夯实网络法治基础,规范人工智能在法律、伦理和人道主义层面的价值取向,确保人工智能安全、可靠、可控。尽管人工智能发展已经取得了一定成果,但在技术支撑体系、管理策略实施及监测评估机制上仍需强化。数据隐私保护和机器责任问题是当前亟待解决的难题,需要建立更强有力且适当的监管框架,并明确相关的法律体系。
中新经纬版权所有,未经授权,不得转载或以其他方式使用。
责任编辑:孙庆阳
以上内容仅为重新整理,原图和文章内容保持不变。