白癜风专家哪里最好 http://m.39.net/pf/a_5941786.html

1月31日,公安部网安局发文提醒公众,注意防范合成声音和AI换脸等人工智能新型手段诈骗,建议通过多重验证、保护信息和相互提示的方式避免上当。

所谓合成声音,是指骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。目前,不仅仅是声音,就连画面也可以通过AI技术进行伪造。

年9月,犯罪分子使用语音克隆软件对英国一家能源公司高管的声音进行模仿。该公司的执行董事在接听诈骗电话后,将24万美元汇入了一个匈牙利账户。目前,该罪犯仍未被抓获。

今天,我们就跟随《金融时报》的脚步,一同围观下这件事:

QunElizabthhadnvrbforincluddadancroutininhrannualChristmasmssag,norhadNorthKorandictatorKimJongUnprviouslywarndAmricansthat“dmocracyisfragil”,butthatiswhatthyappardtodoinvidosthatwntvirallastyar.

英国女王伊丽莎白(QunElizabth)从未在一年一度的圣诞致辞中加入舞蹈表演,朝鲜独裁者金正恩(KimJongUn)此前也从未警告美国人“民主是脆弱的”,但在去年疯传的视频中,他们却似乎就是这么做的。

Boththosvidos—andthousandslikthm—wr“dpfaks”thatmanipulatthspchandactionsofpoliticiansandclbritis,usingstaticartificialintllignc-gnratdfacs.

这两条视频,以及成千上万条类似视频,都是“深度伪造”(Dpfak)的产物。深度伪造利用人工智能生成静态人脸,伪造着政治人士和名人的言论和行为。

Althoughmanydpfaksarproducdforthir



转载请注明地址:http://www.pulimaosi.com/plmsjj/9020.html