诈骗受AI“加持”愈难分辨 人声视讯皆可伪造

宋子玉
2023-03-27
image
(示意图来源:Adobe Stock)

近期诈骗者正使用人工智能(AI)增强骗局的复杂度,伪造视频或语音,专家警告绝不可小觑这一危险趋势,因为这意味着人们会收到声音与亲友几乎一模一样的诈骗电话。

据《每日电讯报》报导,计算机安全公司McAfee的亚太区产品部总经理Tyler McGee说:“您可能会收到听起来像您儿子或女儿打来的电话,听到类似‘我在加油站,我没钱了,能给这个银行账户转点钱帮我付加油费吗’这样的话。” McGee认为,现在已经很难分辨语音的真假了。

去年,澳洲因诈骗和黑客攻击共损失5亿澳元,而且损失仍在增加,因为聊天机器人、帮助骗子深度伪造并减轻“工作量”的人工智能工具已经可以冒充亲人。人工智能研究实验室OpenAI的首席执行官Sam Altman说,连他本人也有点害怕人工智能的潜力。

McGee表示,人工智能让网络犯罪分子占了上风,比如以前骗子可能会犯拼写或语法错误,但现在用ChatGPT可以帮助他们写出更通顺的诈骗文。

ChatGPT自去年11月推出,可产生类似人类的回应,也可以帮一些公司制作营销材料或演讲稿等内容,或编写并修复计算机代码,但也容易被网络犯罪分子利用,在极短时间内创建恶意软件。

McGee说,有些从事网络犯罪的编码员的技能很一般,但有些相当厉害。

他举例称,骗子最近冒充一位首席执行官,通过Zoom电话要求某公司的员工将资金转到骗子的账户中。有一些软件只需获取一小段人声就能立刻仿造此人的声音。

因此他建议,不要为电话信息库设置个性化的语音问候语。“现实是,你的声音就是你的资产。” McGee说。

澳大利亚联邦科学与工业研究组织(CSIRO)Data61项目主任Jon Whittle预测,诈骗者也可能很快创造出聊天机器人,从受害者口中套取敏感信息。

“想象一下,有个假网站伪装成银行网站,它还设有一个聊天机器人。”Whittle说,“随着每一项新技术出现,都会有新的要求,那就是更好地教育公众,让他们了解可能出现的问题。”

他指出,人们现在已经进入了人工智能的“军备竞赛”,可以使用人工智能工具来抵御或防范其他人工智能工具生成的骗局。

 

 

 

 

猜你喜欢

编辑推荐

image