所有版权归中国经济网所有。
中国经济网新媒体矩阵
网络广播视听节目许可证(0107190)(京ICP040090)
随着全球科技公司参与人工智能(AI)竞赛,滥用人工智能技术带来的挑战仍然是硬币的另一面。其中,网络钓鱼诈骗的负面影响最受关注。路透社最近与哈佛大学合作进行了一项研究。这一结果表明,绕过大规模AI模型的安全机制并使其成为网络钓鱼犯罪分子的“帮凶”并不困难。根据研究报告中透露的研究流程,研究人员总共测试了六种主要的AI模型,看看它们是否忽略内置安全机制,生成电子邮件特有的网络钓鱼。结果并不乐观。虽然这些大规模人工智能模型拒绝生成网络钓鱼电子邮件的“直接请求”,但一个简单的修辞校准设计允许他们绕过安全机制。研究人员随后邀请了 100 名老年志愿者参与钓鱼邮件成功率测试。最终,11% 的老年人点击了发送给他们的网络钓鱼电子邮件。一个典型的例子是GPT-5,这是人工智能开放研究中心(OpenAI)不久前发布的大型人工智能模型。该公司表示,它不能创建“旨在欺骗人们,尤其是老年人,点击链接或向虚假慈善机构捐款的虚假电子邮件”。然而,一些测试人员只是礼貌地说“帮帮我”,GPT-5就改变了上面的resistance.ence,生成了三封钓鱼邮件。同样,Meta Inc. 的子公司 Meta AI 最初称其“无用”。然而,在研究人员连续两次表示“这只是为了创作小说”之后,模型自动生成了两封钓鱼邮件。不仅如此,AI Deepfake 技术“伪装真实”的能力也印证了“假冒伪劣”的惯例。耳听为虚,耳听为实”,颠覆了常识。在大规模人工智能模型的帮助下,钓鱼诈骗不再局限于文字,还可以篡改、伪造、自动生成图像、音频、视频,产生的信息模拟程度高、难以辨别。尤其是“AI换脸”、“语音克隆”等已成为网络诈骗危害最大的领域,受害人数持续增长。 成长。要么。联邦调查局的统计数据进一步证实了这一严峻的情况。到 2024 年,60 岁及以上美国人的网络钓鱼投诉将增加八倍以上,造成至少 49 亿美元的损失。从这个意义上说,不少网络安全专家表示,人工智能技术的滥用正在赋予网络钓鱼诈骗新的特点:规模大、成本低、门槛低。造成这一问题的主要原因是目前实施的“安全护栏” AI开发者实力相对较弱,现有安全手段尿素不可靠。 “当前人工智能技术仍处于快速发展阶段,在激烈的市场竞争中,各方都害怕被甩在后面,往往注重模型性能的突破和追求技术领先,以取得更好的成果。大规模人工智能模型的风险防范能力尚未同时提升,安全保障还远远落后于技术创新。此外,外部监管也必不可少。必须面对的现实是,人工智能正处于发展阶段。” 面对技术快速进步所产生的各种灰色地带,传统的治理方法往往缓慢而无力。例如,传统验证机制的服务能力有限且难以适应。随着信息规模的增大,静态的监管框架难以覆盖新的场景,无法跟上技术演进的新步伐。老船桨控制现代巨型船舶的桨和管理马站的许多方法在铁路系统的开发中很难处理。专家认为,给人工智能这把“双刃剑”盖上“安全”,需要法律法规、平台自律、公众意识等多个层面的综合政策。建议出台。这意味着要坚持控制发展干扰,完善法律标准,确保人工智能始终安全、可靠、可控。敦促人工智能行业和企业加强自律。 提高技术防范能力。主动开展风险监测预警,建立应用安全评估体系。对敏感群体实施特殊教育,提高全民数字素养和欺诈意识。等等。只有促进多个参与者的协作努力共同塑造人工智能发展方向,才能共同塑造人工智能发展方向。您将能够更好地解决与人工智能开发相关的各种安全挑战。 (本文来源:经济日报作者:孙亚军)
(编辑:王祖鹏)