接電話「喂」一聲,就可能被複製聲音?人類何時才能真的信任AI?|天下雜誌

接電話「喂」一聲,就可能被複製聲音?人類何時才能真的信任AI?

生成式AI爆炸性成長,然而有心人士利用AI來詐騙,ChatGPT又容易「一本正經地胡說八道」,更嚴重的如自駕車追撞工程車事件時有所聞。該如何讓AI的可靠性持續進步?

AI-ChatGPT-生成式-可靠性-IBM-自駕車-特斯拉-模型 圖片來源:Shutterstock
    其他

我們可以信任AI嗎?這是當前的熱門話題。

很多人說,AI是第四次工業革命,美國科技巨頭紛紛大手筆提高資本支出投入AI,但是蓋出眾多資料中心、新增AI算力,目前一般人還沒感受到生產力大幅提升,卻先看到了詐騙技術的飛躍進展。所謂生成式AI,讓很多人聯想到生成假訊息。

甚至有傳聞,當你接到不明電話,只要說一聲「喂」,AI就可以複製你的聲紋,接著用你的聲音打電話向你家人行騙。

微軟亞洲研究院最近也發表一個技術,只要一張人像照片,及一段音軌,就可以生成一段嘴型、表情都非常逼真的仿真人影音,讓人類以後也不敢相信影片了。

更重要的是,在生成式AI技術加持下,新一代自駕車跟機器人技術突飛猛進,即將大量普及,很多人擔心,AI會不會99%的時間正常,卻突然有一天失控,害慘人類?

此篇為訂戶限定文章
每日6元,投資更好的自己
首購優惠12週 $499
查看訂閱方案
線上+紙本閱讀

你是學生嗎?

完成驗證即可享每月$99元優惠

延伸閱讀
你可能有興趣
廣編企劃|新竹,向永續邁進!|2024 第五屆天下SDGs雙日國際論壇
最新訊息