返回列表 发布新帖
查看: 277|回复: 0

警惕“静音电话”!骗子用AI偷走你的声音,只需3秒!

发表于 2025-10-15 11:04:28 | 查看全部 |阅读模式
意大利华人网2025年10月15日编译消息:近年来,随着人工智能技术的普及,一种看似无害的“静音电话”骗局正悄然蔓延。骗子只需几秒钟录下你的声音,就能用AI技术克隆出“你的声音”,制造令人真假难辨的诈骗陷阱。
截屏2025-10-15 11.01.17.png
电话响起,你接听,却听到对方一片沉默。你下意识地说了几句“喂?听得到吗?”,然后挂断。看似普通的误拨电话,实际上可能是一场有预谋的声音盗取行动。诈骗团伙利用自动拨号系统,每天能拨出上千通电话。一旦有人接听,系统就会标记该号码为“活跃有效”,并在黑市网络中共享。这些号码可能被用于钓鱼诈骗、机器人拨号,或被AI语音公司用作“克隆素材”。

只要几秒钟的语音片段,AI就能重建你的声音。网上有许多廉价、易用的语音克隆工具,可以精准模拟音色、语调和语气,甚至连家人都难以分辨真假。骗子利用这些“声音分身”,能伪装成你的亲人打电话求助、以假冒身份索要钱款,甚至冒充本人进行银行账户操作。

研究显示,如今人类已经很难分辨真假声音。发表在《PLoS One》期刊的一项最新研究指出,AI生成的声音越来越逼真。在实验中,参与者需要判断80段声音样本中哪些是真实人声、哪些是人工合成。结果发现,人们大多能识别出完全AI生成的声音,但当AI以真人录音为基础进行克隆时,超过一半的参与者误认为那是真人。而在真实语音中,仅62%被正确辨认为“人类声音”,这意味着AI的模仿能力已几乎以假乱真。

专家警告,这类AI语音诈骗之所以危险,是因为监管和追踪几乎无从下手。美国加州大学伯克利分校数字取证专家哈尼·法里德(Hany Farid)指出:“这是一场完美风暴。AI能分析年龄、性别、口音、语调等特征,并在数据库中寻找匹配样本进行重建。过去要克隆一个人的声音需要很长音频,如今只要你在社交媒体上发过视频或录音,几秒钟就足够。”

那么,如何防范此类诈骗?
专家建议:

接到陌生号码来电时,不要主动开口,让对方先说话;如果无人回应,应立即挂断。

事后可直接屏蔽该号码并标记为可疑。

对于熟人突如其来的“求助电话”,应通过短信或邮件提前确认对方身份。

不要轻信来电显示,因为AI也可以伪造号码。

AI技术的便利正在被不法分子滥用。保护自己的声音安全,已经成为新的网络防骗课题。

(异域 编译)
美图精选
  • 11月19日要闻:反骚扰电话新规全面启动;南部多区发布恶劣天气预警!11月19日要闻:反骚扰电话新规全面启动;南部多区发布
  • 5名少年围殴刺伤22岁博科尼大学生,还跑去TikTok炫耀!5名少年围殴刺伤22岁博科尼大学生,还跑去TikTok炫耀
  • 15亿里拉成废纸?意大利男子状告政府:收税那么勤快!15亿里拉成废纸?意大利男子状告政府:收税那么勤快!
  • 还得是意大利!2025欧洲最想去的国家又是它还得是意大利!2025欧洲最想去的国家又是它
  • 米兰科尔蒂纳2026冬奥火种路线曝光,全意大利变身大型庆典现场米兰科尔蒂纳2026冬奥火种路线曝光,全意大利变身大型

联系华人网

中国公司 Companies of China 联系地址: 广东省东莞市松山湖区科技四路1栋803室 联系电话: 0769-22327002联系邮箱: [email protected]
  • 意大利华人网客服
  • 关注微信公众号HUARENWANG-ITALIA
  • 下载APP
Copyright © 2025 华人网 版权所有 All Rights Reserved.
免责声明: 本网不承担任何由内容提供商提供的信息所引起的争议和法律责任。

APP下载

关灯 在本版发帖
意大利华人网客服
返回顶部
快速回复 返回顶部 返回列表