您所在的位置: 首页  >  风险提示
“AI诈骗”:何以解忧
发布时间:2023-09-04    来源:信用中国

近日来,AI诈骗的新闻不时进入公众视野,也引发了一些公众的焦虑和担忧。所谓AI诈骗,是指使用人工智能技术,深度伪造人的肖像(如AI换脸)、声音,进而让受害者受骗的一种诈骗形式,是电信诈骗的一种新形态。据有关媒体报道,福建一个企业家被AI诈骗骗取了430万元。犯罪分子通过AI技术伪造了其好友的肖像和声音,通过视频聊天的方式取得了企业家信任后,实施了诈骗行为。所幸,该企业家及时报警,警方协同银行为其挽回了大部分损失。

AI诈骗,因具有高度伪装性,相比传统诈骗,给群众带来了更大危害。那么面对AI诈骗,法律又能如何保护你我呢?事实上,我国现行法已经从行政、民事和刑事等多方面对此进行了规制,以保护人民群众的财产安全。

在行政监管上,我国对深度合成技术的应用进行了严格监管。国家网信办、工信部和公安部在2022年11月联合发布了《互联网信息服务深度合成管理规定》(以下简称《规定》)。《规定》从一般意义上禁止任何单位和个人利用深度合成技术侵犯他人的合法权益,重点对深度合成技术服务提供者的行为进行了规制。具体而言,《规定》要求深度合成的服务提供者应当对使用者的真实身份进行验证,不得向未进行真实身份验证的使用者提供服务。这种对使用者实名制的要求,即有利于追究责任,对威慑利用深度合成技术进行诈骗也有一定意义。另一方面,《规定》还要求深度合成服务提供者对合成的内容进行标识,即标明该内容是使用AI技术合成所得,并非真实。例如,在合成一张人脸照片时,应该在人脸上的某个位置,注明“该图像由AI合成”等类似提示语,以防止看到图像的人被误导。为防范不法分子删除或者隐匿这个明显标识,《规定》还要求服务提供者用技术手段在图像内打上肉眼不可见的标签,来标明这个人脸图像是深度合成的结果。这种隐形标识既有利于各网络平台进行监测,防范不法分子的诈骗活动,也可以在事后追究责任时用于理清不法分子的犯罪链路。

在民事方面,自然人的人脸、声音等信息受到法律的保护。《中华人民共和国民法典》(以下简称《民法典》)第1019条第1款规定,任何组织和个人都不得利用信息技术伪造等方式侵害他人的肖像权。这里的信息技术伪造,在现阶段就是指上文提到的深度伪造等技术。《民法典》第1023条第2款规定,对自然人声音的保护,参照适用肖像权的规定。因此,利用AI诈骗的行为不仅侵害了被诈骗人的财产权,也侵害了被伪造人脸、声音之人的人格权(肖像权属于人格权的一种)。在前述媒体报道的事例中,企业家作为被诈骗人,财产权受到了侵害,同时其好友的人格权也受到了侵害。该好友可以通过民事诉讼的方法寻求救济。根据《民法典》第1182条的规定,肖像权(声音被侵害参照肖像权处理)被侵害如果造成财产损失,应按照被侵权人因此受到的损失或者侵权人因此获得的利益赔偿。在AI诈骗中,被伪造人脸、声音的人(简称被伪造信息的人)是否具有财产损失是一个问题。如果被伪造信息的人对被诈骗人的损失存在过错,被诈骗人通过司法渠道要求其承担损失,且被伪造信息的人被法院判决需要赔偿。那么,被伪造信息的人这部分赔偿金额,也许可以认定为其肖像权被侵害导致的财产损失。

在刑事方面,我国对包括AI诈骗在内的电信诈骗一贯进行严厉打击。AI诈骗涉及的主要刑法罪名是“诈骗罪”。除了诈骗罪,AI诈骗中一些行为还会涉及其他罪名。例如,非法收集、买卖人脸等个人信息会涉及“侵犯公民个人信息罪”;明知他人进行AI诈骗,还以提供银行卡等方式帮助诈骗分子获取被诈骗的钱财,则会涉及“帮助信息网络犯罪活动罪”。AI诈骗本质上仍是一种电信网络诈骗,因此也可以适用《中华人民共和国反电信网络诈骗法》。与电信网络诈骗治理关系密切的相关主体包括电信运营商、银行、非银行支付机构(例如支付宝)、互联网平台等。该法通过规定这些主体的责任义务,激励其采取有效措施切断电信网络诈骗所依赖的工具环节(例如利用虚假身份办理的银行卡、电话卡),从而严厉打击电信网络诈骗。

最后,作为普通大众而言,要有效防范AI诈骗,可以做好以下两个方面的工作:其一,是增强防范意识。要认识到AI诈骗伪造的高仿真性。对于大额资金转移的要求,应该以其他方式进行二次核验。例如,好友以微信视频聊天的方式要求转账;则应通过电话进行二次确认。同时,在可能的情况下,转账尽量选择隔日到账,为发生诈骗后挽回损失留下时间窗口。其二,一旦意识到被诈骗,应尽快报案。通过警方与银行的联动机制,由银行尽快截留被骗资金,以最大限度挽回损失。


信用中国| 2023-09-04