全球移民热线 400-123-4567 在“有图有真相”的这个时代,正被AI技术完完全全地彻底颠覆,今年3月初,一则有关“华山医院前院长”张明远因病客死他乡的消息,在互联网上广泛地进行传播,从而引发无数网友发出唏嘘声,然而,上海警方经过调查之后发现,华山医院根本就不存在叫张明远的院长或者员工,这起案件最终得以告破,揭开了犯罪嫌疑人运用AI工具,在完全不晓得华山医院以及“张明远”的状况下,批量制造谣言的黑幕。
2024年,在上海发生了一起案件,王某某、郭某某、石某某等,名为3名的犯罪嫌疑人到案了,这件事里,其作案手法,真的是令人瞠目,他们控制了500余个自媒体账号,通过设置社会热点、明星绯闻等关键词后,利用AI工具自动生成并发布不实帖文,在短短时间内,就发布了30余万条虚假内容,对社会秩序造成了恶劣影响,这是典型的利用新技术实施的传统犯罪。
近年,自然语言处理与深度伪造技术成熟,AI造谣愈发隐蔽起来,以往“有图就有真相”的认知遭到彻底颠覆,因为现今AI能够生成极其逼真的图象、音频与视频,犯罪嫌疑人甚至无需知晓实打实的人和事,只输入关键字或者词,AI就能够自动炮制出一篇看上去逻辑严谨、细节繁多、细节很丰富的假新闻报道,让人难以辨别它真假与否。
AI进行造谣的主要形式里其中之一是去生成逼真的假新闻以及伪造的社交媒体帖子,借助技术合成名人、政客的虚假影像或者语音,能够让任何人于视频中说出从来都没说过的话,举例来说在2024年8月时,市民刘先生在短视频平台结识了网友“焦女士”,在接触两个月之后被对方以开店、家人生病等理由骗走了近20万元,之后发现整个恋爱过程都是诈骗团伙借用AI技术进行包装的。
把社交机器人跟AI技术予以结合,那些不法分子能够于社交媒体之上大规模地去扩散谣言,进而制造虚假的舆论,他们借助伪造热点事件、捏造名人言论以及炮制伪科普,一步步地诱导读者“掉进陷阱”,在上述刘先生所涉及的案件当中,警方发现了一个以杨某作为为首之人的交友诈骗团伙,他们施行流水化作业,有着专门负责上架视频的引流人员,还有负责伪造聊天内容的“修图”人员。
在面对AI诈骗情形时,最简单的那种辨别方法便是要让对方去做个连贯的转头行动举止、去做一个用手掌彻底地把脸给整个遮住之后再迅速移开来的这一动作。当前现存的AI技术于模拟那种复杂的面部遮挡以及光影方面所存在的变化之时很容易出现卡顿、模糊或者扭曲的状况。除此之外,就通常情况而言AI所生成的语音往往是缺乏那种自然的呼吸停顿以及情感方面所存在的起伏变化的,要是对方发出来的声音听起来“跟平常不一样”,那么一定要提升警惕,这极有可能讲出的是采用AI合成出来的声音。
不管视频通话显得多么真切,只要关乎金钱交易或者借钱之类存有敏感之处的要求,一定要经由其他值得信赖的路径再次予以确认。正确的做法是,挂断之后径直拨打对方平常一直用且你熟知的电话号码,而非回拨可疑的来电。还能够借助你们两者都认识的第三方来实施侧面的核查。记住,视频方面的语音切莫轻易相信,利用动作予以验证当多多加以核实,这乃是预防AI诈骗最为见效有效的手段。
于网络安全一天比一天复杂的当下,我们当中每一个人皆有可能变成AI技术的受害之人或者传播之人。当你于网络里瞅见一条使人大为震惊的消息之际,你是决定马上就转发呢,还是会耗费一分钟去查验它的真实情况呢?欢迎在评论区域分享你的认知及想法,点赞并且转发这篇文章,以使更多人学会识别AI布置的圈套圈套。