近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。案件一经发布,引起网友广泛关注,在当今这个科技高速发展的时代,AI技术的非正规使用不禁让我们捏了一把汗。此类犯罪手段并非今年刚刚兴起,在两三年前就时有发生。2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元;2022年2月,犯罪分子利用陈先生好友在社交平台发布的视频,使用AI换脸技术制造陈先生与“好友”视频聊天的假象诈骗近5万元。
科技是把双刃剑,一旦被别有用心的人利用就会造成不可估量的严重后果。犯罪分子在行骗时往往使用AI技术伪装成受害者信任的亲朋好友,通过语音、视频等方式与受害者建立联系,充分利用人们的感情,获取其信任后再实施犯罪。AI 换脸除了给犯罪分子提供大发横财的可乘之机,也侵犯着受害者的肖像权、隐私权和名誉权。江苏常州法院公布一起“人脸解封”侵犯公民个人信息案:被告从他人处购得被害人个人信息,通过技术手段骗过社交平台人脸识别,从而帮助诈骗团伙实施犯罪;也有网络黑灰产从业者通过网络论坛出售“AI换脸”技术合成的淫秽视频,或在二手交易平台为买家“定制”类似视频,多位女明星成为受害者。(来源:南方日报)
AI犯罪愈演愈烈,已然到了不得不防的地步,首先要健全法律法规,加强合理管控。AI诈骗对于监管部门来说,是个新兴手段,要与时俱进,时刻跟随科技发展的步伐,完善相关法律法规的制定,更新监管手段。如今年1月,《互联网信息服务深度合成管理规定》实施,其中明确规定网信部门和电信主管部门、公安部门等监管部门,需要加强监督检查、技术治理,对不当使用AI合成技术的机构和人员,按照有关法律、行政法规采取措施,进行整改;造成严重后果的,依法从重处罚。
其次,AI合成开发商需严格界定AI技术使用范围,提高使用门槛,制定技术使用规范,防止被居心叵测的人利用。同时,开发商和发布者应当履行自身法律义务,包括实名注册义务、提示义务、标识义务等。发布相关视频时应当在显著位置标注“人脸合成视频”,以尽提示和标识义务。使用他人面部识别信息时,视频制作者应遵守知情、同意为前提的信息使用原则,保护其肖像权、隐私权和名誉权。
作为一名普通民众,为保护我们自身的合法权益不受侵犯,应在平日提高警惕,防止个人信息泄露。不随意点开来路不明的网页,下载国家反诈APP,对诈骗信息进行拦截。不随意传播、制作他人违法违规的AI合成视频、照片,在无形中助长犯罪分子的嚣张气焰。如遇到疑似AI诈骗的视频、语音信息,可让对方做一些特定的表情、动作,或谈论只有彼此知道的信息,借此辨别身份,防止自己陷入骗局。同时,应第一时间向有关部门反映,合理运用法律法规维护自身或他人的权益。
技术的发展本身是值得庆贺的,但被拿来干侵权违法的事,就是一种危险的走偏。在AI技术发展如火如荼的今天,数字无限接近真人,虚拟的一切正逐渐融入进我们的日常社交生活中,甚至在无形中侵犯着人们的合法权益。而只有人类的权利得到了保障,AI技术的研发与使用才是真正惠民利民的可喜之事。
(作者 赵晨安)