财经新闻网消息:
朋友通过视频电话向您借钱
直播间人气明星纷纷“带货”
这些能是假的吗?
如果你相信这些
当心
AI或许会让你“眼见为实”!
随着AI深度合成技术的成熟,AI深度合成产品和服务如雨后春笋般涌现,“AI换脸”、“AI变声”等许多仍处于监管灰色地带的行业也随之成长起来猖獗,为不法分子提供了可乘之机。 作为网络欺诈和身份盗窃等犯罪活动的工具。 这种利用人工智能技术融合他人面孔和声音,打造逼真合成图像的新型网络诈骗,具有呈现方式越来越多样化、门槛大幅降低、识别难度加大等特点,往往让消费者放松警惕。 造成更大的损失。
为保护金融消费者合法权益,提醒广大消费者警惕利用人工智能技术的新型诈骗:
01
冒充熟人诈骗钱财
犯罪分子在实施犯罪前,首先对公众在互联网上发布的各类信息进行分析,根据拟实施的欺骗行为筛选目标人群,并通过拨打骚扰电话、盗取聊天软件信息、收集网络社交媒体等方式进行提取。信息等,或通过非正式的借贷兼职平台购买注册用户的声音和面材料。 犯罪分子再利用这些视听素材,借助AI声音合成、AI换脸技术,向目标亲友发送虚假语音信息或实时视频通话,用虚假的声音和面孔来赢得信任和信任。然后进行诈骗。
02
冒充名人并进行虚假广告
不法分子利用AI换脸技术,将真实面孔替换为知名公众人物的面孔,并通过社交媒体传播,诱导用户和粉丝点击链接下载恶意软件或输入个人信息,导致消费者信息泄露; 或者利用这个公众人物“直播带货”的社会影响力,诱导不明真相的消费者购买假冒伪劣产品。 这些利用人工智能手段大量生成并在社交媒体上广泛传播的侵权内容,不仅侵犯了消费者的公平交易权,还对被冒充公民的肖像权、名誉权和隐私权构成巨大威胁。
03
被盗账户诈骗钱财
不法分子冒充公安、司法部门工作人员联系消费者,通过视频通话盗取消费者的面部信息,然后利用AI换脸等技术,通过一些APP账号注册人脸识别验证,进而诱骗消费者提供验证码将银行卡与账户绑定,从而将消费者银行卡上的资金转移到不法分子控制的账户中。
如何预防呢?
AI换脸进行视频合成诈骗的行为都是利用新技术进行诈骗,与传统诈骗本质上是一样的,防范手段也千变万化。 请广大消费者牢记以下防范要点,做个人信息安全第一责任人,谨防AI换脸诈骗:
AI拟声词、AI换脸包装假电话虽然可以真实模仿原著人物的语言和行为,但仍然存在眨眼频率低、眼球运动不协调、面部表情不自然、唇形不匹配、句子不连贯等缺陷。如果您在与亲友的视频、语音交流中发现上述异常行为,应立即警惕。 如果核实后确实需要转账,应尽量将钱转入银行账户,避免通过社交软件转账,这有利于你进一步核实对方身份并跟进转账信息。 一旦发现风险,及时报警求助。
保护信息,拒绝诱惑
提高信息保护意识,尤其要警惕需要录入个人信息的非正规软件,如走路赚钱、刷卡兼职应用等。开启“定位服务”时一定要谨慎,输入“身份证号码”或输入“人脸识别信息”、“指纹识别信息”等个人生物特征信息; 有关部门的投诉、举报。
另外,正确设置个人社交账号的浏览权限,不要过度披露或分享涉及个人信息的动画、视频,警惕不明平台发送的广告、中奖、交友链接,不要填写个人信息随意,不要轻易开启与陌生人的手机屏幕共享。
通过出版物和会议,协会提供法律领域的最新发展,并积极解决阻碍民主与和平发展的问题。
海量信息,精准解读,尽在新浪财经APP
免责声明 ① 本网所刊登文章均来自网络转载;文章观点不代表本网立场,其真实性由作者或稿源方负责 ② 如果您对稿件和图片等有版权及其他争议,请及时与我们联系,我们将核实情况后进行相关删除 ③ 联系邮箱:215858170@qq.com