AI语音欺诈:“孙子骗术”的新高度

网络犯罪分子的创造力越来越强。但过了一段时间,像“孙子戏法”这样的常规戏法就失效了。你们中的许多人可能都知道这…

网络犯罪分子的创造力越来越强。但过了一段时间,像“孙子戏法”这样的常规戏法就失效了。你们中的许多人可能都知道这一点。您的女儿、儿子或孙子向您发送有关紧急情况的杂乱短信或 WhatsApp 消息。你需要快速接触,当然,最终要赚钱。与此同时,欺诈者更进一步,利用生成式人工智能来提高克隆声音的真实性。

在此,迈克菲警告人们可能想要关注的趋势。这意味着网络犯罪分子正在使用用户在互联网上找到的音频和视频材料。他们用它来创建你声音的人工智能克隆,使骗局更加可信。尤其是老年人,更容易上当受骗。据说这种新技术的变体已在德国使用。

AI语音欺诈:“孙子骗术”的新高度

问题是:许多人在社交网络上发布有关自己的音频和视频内容,使犯罪分子很容易利用人工智能复制他们的声音。音频素材短至 3 秒就足够了。大约 53% 的成年人每周至少与他人分享一次语音数据,迈克菲认为这是欺诈者的巨大游乐场。 49% 的人每周这样做多达 10 次。

AI语音欺诈:“孙子骗术”的新高度

您如何保护自己以及您的朋友和家人?第一步是不要公开发布音频或视频文件。如果不可能,至少请仔细考虑将录音发送给哪些联系人。如果您接到朋友或家人打来的电话,告知您发生紧急情况,需要您汇款。 B. 通过回调可以判断是真人。尽管这听起来可能是“开玩笑”,但您也可以就此类情况商定一个代码字。

AI语音欺诈:“孙子骗术”的新高度

主动警告周围的人有关这种人工智能语言骗局也是有意义的。迈克菲预测,未来感染人数可能会大幅增加。不幸的是,假视频和直播变得越来越复杂。