本文讨论了生成式人工智能(Generative AI)可能对恐怖主义造成的潜在影响,并探讨了如何正确评估这一威胁。作者戴维·威尔斯是中东研究所的全球安全顾问,拥有丰富的反恐研究经验。
近年来,生成式人工智能技术的迅速发展引发了人们对其可能被恐怖分子滥用的担忧。
目前尚无确凿证据表明生成式人工智能被广泛用于恐怖主义活动,但一些案例显示恐怖分子已开始试用这种技术来生成宣传材料。
现有的生成式人工智能工具能够优化恐怖分子的某些宣传相关任务,如图像、视频和音频内容的生成与修改。
新的能力可能被夸大,实际效能受限于技术进步和恐怖分子的技术技能。
生成式人工智能对社会的直接影响,如就业损失和信息环境恶化,以及对权威政权的加强和歧视的加剧。
各级政府、科技行业和学术界及公民社会需协调应对生成式人工智能带来的挑战,借鉴反恐和预防及打击暴力极端主义(P/CVE)的经验。
本文强调了生成式人工智能技术在恐怖主义活动中的应用潜力和当前有限的实际证据。核心观点在于,尽管生成式人工智能确实提供了某些优化现有宣传能力的潜力,但这些能力的实际效果可能受到技术进步和恐怖分子技术技能的限制。同时,生成式人工智能对社会的更广泛影响不容忽视,必须通过跨领域合作制定对策,以应对这一新兴技术带来的挑战。
国家、区域和国际层面的应对措施
国家、区域和国际层面正在采取一系列措施应对生成式AI的广泛风险,包括起草法规、进行咨询和初步的双边或多边协议。
尽管这些措施在应对生成式AI的广泛风险方面具有重要意义,但很少有措施专门针对恐怖分子使用生成式AI的风险。
为了有效应对生成式AI的威胁,必须借鉴过去二十年反恐和预防及打击暴力极端主义(P/CVE)的经验,包括多边合作、公私合作以及尊重人权的重要性。
技术行业、学术界和民间社会的应对措施
技术行业正在采取措施应对生成式AI的广泛风险,包括制定新的监管措施和咨询。
学术界和民间社会也可以在应对生成式AI的挑战中发挥重要作用,包括通过研究和教育来提高公众对生成式AI潜在风险的认识。
应用反恐和P/CVE的经验教训,可以为应对生成式AI的挑战提供宝贵的指导。