分享好友 生活常识首页 频道列表

公众该如何防范AI诈骗,究竟是怎么一回事?

新闻资讯  2023-05-25 09:340

正文摘要:

随着人工智能技术的不断发展,越来越多的人开始使用AI来进行各种活动,包括金融交易、社交媒体、电子商务等。但凡事都有利弊,AI技术的发展使人们的工作及生活水平都不断得到提升,但是也有一些不法分子利用AI技术实行诈骗,那么,如何防止AI诈骗呢?AI诈骗是指利用人工智能技术进行欺诈活动的行为。公众应该了解AI诈骗的原理和方式,学会识别和防范AI诈骗。总之,防范AI诈骗需要政府、企业、机构和公众共同努力。只有加强对AI技术的监管和研究,提高公众的安全意识,加强技术防范措施,才能有效地防范AI诈骗,保护公众的财产和安全。
公众该如何防范AI诈骗究竟是怎么一回事,跟随小编一起看看吧。

随着人工智能技术的不断发展,越来越多的人开始使用AI来进行各种活动,包括金融交易、社交媒体、电子商务等。但凡事都有利弊,AI技术的发展使人们的工作及生活水平都不断得到提升,但是也有一些不法分子利用AI技术实行诈骗,那么,如何防止AI诈骗呢?

首先,我们需要了解AI诈骗的原理。AI诈骗是指利用人工智能技术进行欺诈活动的行为。这种欺诈行为通常是通过模拟人类行为来进行的,例如通过虚假的社交媒体账号、虚假的电子邮件等方式来进行欺诈活动,现在的AI技术越来越成熟,可以模仿真人的声音和面部表情等等,就算是视频通话也有可能是AI技术完成的,所以一旦涉及到财产问题,一定要小心处理,对此,我们需要采取一些措施来防止这种欺诈行为。

其次,我们需要加强对AI技术的监管。政府和相关机构应该加强对AI技术的监管,制定相关法律法规,规范AI技术的使用和开发。同时,也需要加强对AI技术的研究和开发,提高AI技术的安全性和可靠性。

第三,我们需要提高公众的安全意识。公众应该了解AI诈骗的原理和方式,学会识别和防范AI诈骗。例如,不要轻易相信陌生人的信息和请求,不要随意点击陌生链接,不要泄露个人信息等。

最后,我们需要加强技术防范措施。企业和机构应该加强对AI技术的安全性和可靠性的研究和开发,采取一些技术防范措施,例如加密技术、人脸识别技术、智能监控等,来防范AI诈骗。

总之,防范AI诈骗需要政府、企业、机构和公众共同努力。只有加强对AI技术的监管和研究,提高公众的安全意识,加强技术防范措施,才能有效地防范AI诈骗,保护公众的财产和安全。在这个网络迅速发展的时代,我们更应该加强自身的保护,我们应该合理应用AI,AI应该是帮助人们便利的好工具,而不是成为坏人的作案工具!

公众该如何防范AI诈骗相关阅读:

警惕!成功率近100%的新骗局全国多地频发,有人10分钟被骗430万

近期“AI换脸”新型诈骗频发

一起利用人工智能(AI)

实施电信诈骗的典型案例冲上热搜

引发全网关注

和你视频对话的

可能不是真人!

“好友”突然打来视频

10分钟被骗走430万元

近日,“平安包头”公众号发布一起利用人工智能(AI)实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系到他,两人经过短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。

好友向郭先生要了银行卡号,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。基于视频聊天信任的前提下,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。

钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。

郭先生拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。

“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。

幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移。

对于AI换脸诈骗,有网友认为太可怕,也有人认为,以后借钱得当面谈了。

AI诈骗常用手法

据湖北网警巡查执法5月6日消息

AI技术的新骗局来袭后

诈骗成功率竟接近100%

AI技术

如何介入新骗局?

有什么新的诈骗方式?

注意了

第一种是声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

案例:某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。

第二种是AI换脸

因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。

近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。

第三种是转发微信语音

除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。

在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。

第四种是AI筛选受骗人群

值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。

“迪丽热巴”、“杨幂”等明星直播卖货?

AI换脸或涉嫌侵权

除了诈骗钱财,此前还有女子被人利用AI“一键脱衣”造黄谣,某男子利用视频合成技术,将电视剧中与某知名女星亲吻的男主角换成自己以蹭流量,效果都到了以假乱真的地步。在直播间,AI实时换脸也带来了侵权危害。

“点进直播间一看,‘迪丽热巴’居然在直播卖货。”近日,有网友点开直播间,却发现正在卖货的竟是“当红女星”。然而再定睛一看,这些带货“明星”很快露出了马脚——身穿中式服装,正在卖力带货的“明星”们,其实只是使用了AI实时换脸技术的普通主播。

有视频换脸研究者表示,实时换脸不存在延迟,也不会有Bug,而直播画面传输的延迟则取决于使用者的网络配置和进行直播的平台。

近日

与AI相关的话题还登上了微博热搜

5月22日,孙燕姿在社交平台上发布了《我的AI》一文,首度回应自己对“AI孙燕姿”的看法。

在B站上,目前“AI孙燕姿”已经拥有超过1000首翻唱作品,数量远超真人歌手,其中“AI孙燕姿”翻唱《下雨天》《半岛铁盒》等作品更是取得了突破百万的播放量。除孙燕姿外,面对周杰伦、陶喆、陈奕迅、王菲等歌手也被“AI化”,拥有各自的AI翻唱歌曲。

孙燕姿称,当她的歌迷已经接受她是一名冷门歌手的事实时,AI孙燕姿成了顶流。她想跟歌迷们说的是,你们和一分钟推出一张专辑的人有什么好争的。

只需一张照片

就可以用自己的脸替换视频主人公

此类AI换脸特效也受到网友追捧

警方提示

针对花样翻新的智能AI诈骗

公众要提高防范意识

1. 不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;

2. 网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;

3. 如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;

4. 如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。

作为一种基于深度学习算法的

信息技术

人工智能本身是中性的

但背后操作、设定、使用的是真实的人

AI可以为生活带来便利

也可被用来牟利作恶

这也提醒我们

普及人工智能技术时

必须以法律和道德加以规范

综合平安包头、常德网警巡查执法、上海新闻广播、21世纪经济报道、新闻坊、中国新闻网、界面新闻、网友评论等

来源: 东方网

查看更多关于【新闻资讯】的文章

展开全文
相关推荐
反对 0
举报 0
评论 0
图文资讯
热门推荐
优选好物
更多推荐文章
更多推荐