记者孔海丽、实习生张奕丹 北京报道
人工智能的“双刃剑”效应日益明显。
AI技术在引发科技变革、提升生产力和效率等方面展现了充分的潜力,但与此同时,它带来的安全隐患也越来越凸显。利用深度伪造制造假象、操纵舆论甚至进行欺诈活动已经侵扰了正常的公众生活,“AI骗局”的新手段层出不穷,让人防不胜防。
同样不容忽视的是,恶意AI大模型的出现、网络钓鱼攻击以及LLM自身的安全风险等,在不同层面上放大甚至催生了新的安全隐患,给经济安全、信息安全、算法安全、数据安全等带来了威胁。中国银河(601881)证券分析师认为,人工智能在知识产权、劳动权益、伦理准则等方面存在侵权风险。
而随着我国《全球人工智能治理倡议》、美国《关于安全、可靠和值得信赖的人工智能的行政命令》以及欧盟《人工智能法案》等与人工智能相关的法案发布,AI安全的相关法律规定得到完善,在AI安全问题上的法律实践有望逐步落实。
宏观上,监管层已经“出手”。微观上,目前的形势也对各主体也提出了相应的要求。在企业层面,金社研究院分析师指出,AI领域的企业应当考虑搭建相应的AI安全与合规体系,从而对于AI的安全与合规问题形成系统性保障;对公民个人而言,对虚假信息保持警惕是面对威胁加强自身防护的第一步。
“无孔不入”
生成式AI面世以来,看得见和看不见的变革和颠覆正在持续进行着,因为其便捷性和应用的广泛性,AI渗透到人们工作生活的方方面面,而与之相对应的是AI滥用风险的日益显露。
今年1月,麻省理工科技评论(MIT Technology Review)公布了基于2778名专业研究人员对于人工智能未来看法的调查结果。对于AI可能给人类带来的风险,结果显示,以深度伪造为代表的AI制造传播虚假信息和操纵舆论、加剧经济不平等和被危险团体恶意使用等问题受到较多关注。
奇安信《2024人工智能安全报告》则指出,AI恶意使用对现有格局的影响主要有两类:一个是放大现有威胁,即极大提高现有恶意活动的效率、扩大恶意活动的规模,如钓鱼邮件和社会工程学的恶意活动;另一个是引入新型威胁,即引入新的攻击对象和模式,比如AI模型自身的漏洞,以及借助AI生成的音视频内容来进行诈骗。
这其中,深度伪造“劣迹昭著”。
深度伪造(deep fake)是一种使用人工智能技术合成人物图像、音频和视频,使得伪造内容趋于真实的技术,可能滋生多种新型违法犯罪,例如利用AI合成虚假的人物图像或色情视频进行侮辱诽谤、敲诈勒索、操控舆论以制造或推动网络暴力等对社会安全造成了威胁。
麻省理工科技评论在去年12月发布了文章《六个问题将决定生成人工智能的未来》,其中就提出了“AI造假的风险有多大”的问题。2023年一些用AI制造的假照片在网上疯传这一现象引起了大众的担忧,部分甚至涉及教皇、特朗普等敏感人物。
(被数百万人看到和转发和假照片 来源:MIT Technology Review)
随着生成式AI全身动作生成等技术的进步,深度伪造内容的可信度也进一步增加。利用AI工具制作虚假色情视频进行传播、勒索等恶意行为引起广泛关注。去年6月,美国网络犯罪投诉中心(IC3)发布了公共服务公告,美国联邦调查局(FBI)警示公众警惕恶意行为者利用受害者社交媒体上发布的图像和视频来AI篡改,进行性勒索和骚扰。
其次是恶意人工智能大模型带来的威胁。
恶意人工智能大模型是指由非法组织或不法分子操纵,借助开源模式模仿ChatGPT等合法模型,基于有害语料库训练而生滋生的、专门用于网络犯罪、诈骗等非法行为的一类非法大模型。
据悉,首个恶意大模型WormGPT 于2021年7月在暗网发布,主要用于生成复杂的网络钓鱼和商业电子邮件攻击及编写恶意代码。
恶意大模型产生的直接目的就是用于各类非法行为,带来的威胁具有明确指向性。恶意大模型主要运行于暗网,具有更强的隐蔽性、危害性,对国家安全、行业创新、生产生活等方面造成危害。
暂无评论内容