• Information Center

ETO Markets 官网:这家银行称数百万人可能成为人工智能语音克隆诈骗的目标

图片3.png

一家英国银行警告称, “数百万”人可能成为利用人工智能克隆声音的骗局的受害者。

一家纯网络贷款机构 Starling Bank 表示,诈骗者能够利用人工智能从某人发布到网上的视频等短短三秒钟的音频中复制其声音。然后,诈骗者可以识别该人的朋友和家人,并使用人工智能克隆的声音打电话索要钱财。

史达林银行在周三的新闻稿中表示,此类诈骗行为有可能“损失数百万美元”。

这些骗局已经影响了数百人。根据该银行上个月与 Mortar Research 联合进行的一项针对 3,000 多名成年人的调查,超过四分之一的受访者表示,在过去 12 个月中,他们曾成为人工智能语音克隆骗局的目标。

调查还显示,46% 的受访者并不知道存在此类骗局,8% 的受访者会按照朋友或家人的要求汇出尽可能多的钱,即使他们觉得电话听起来很奇怪。

史达林银行首席信息安全官丽莎·格雷厄姆在新闻稿中表示:“人们经常在网上发布包含自己声音的录音内容,却从未想过这会让他们更容易受到欺诈者的攻击。”

银行鼓励人们与亲人约定一个“安全短语”——一个简单、随机、容易记住且与其他密码不同的短语——可以用来通过电话验证他们的身份。

贷方建议不要通过短信分享安全短语,因为这可能会让诈骗者更容易发现,但是,如果以这种方式分享,则在对方看到后应立即删除该消息。

随着人工智能越来越擅长模仿人类的声音,人们越来越担心它可能会对人类造成伤害,例如帮助犯罪分子访问他们的银行账户,并传播错误信息。

今年早些时候,生成式人工智能聊天机器人 ChatGPT 的制造商 OpenAI 推出了其语音复制工具Voice Engine,但当时并未向公众开放,理由是“可能存在合成语音滥用的情况”。

由ETO Markets整理最新财经信息,不对信息内容负法律责任,同时不作为交易参考依据,请受众谨慎参考决策。ETO Markets平台感谢您的收看与支持!


Last: None