AI研究所警告:機器已能寫出以假亂真文章 唔盡快定規矩將衝擊人類社會

文章可唔可以由機器寫成?透過人工智能同深度學習,一種被稱為「語言模型(language model)」嘅技術已經逐漸成熟,開始同人類嘅文章真假難分,甚至研究人員都以論文警告需要盡快設立規矩,以免呢啲技術被利用製造假新聞,「學壞晒」講啲歧視同傷人嘅言語。
近日OpenAI同史丹福大學嘅研究人員發表論文,警告好似Google同埋OpenAI呢啲擁有「大型語言模型」嘅機構要盡快設立規矩,以處理佢哋嘅技術即將對社會產生嘅影響。

喺上年,OpenAI發表咗一個叫做GPT-3嘅語言模型,可以理解人類自然語言並給予適當嘅回應。佢自如咁同人類對話,假可亂真,技術之高令人震驚,而且可以自己喺網絡學習人類語言,因此被譽為超越AlphaGo嘅人工智能技術突破。

GPT-3係使用由Reddit(類似香港嘅lihkg網上討論區)或者Wikipedia等網站搜羅大量文本做訓練數據。但結果,研究員發現GPT-3「學壞晒」,喺到歧視殘疾人士、黑人,仲似乎相信所有穆斯林都係恐怖分子。

佢哋亦都擔心大型語言模型會淪為生產虛假消息嘅工具,俾啲假新聞網站用嚟大量寫作同散播啲虛假但譁眾取寵嘅文章。

Google嘅人工智能倫理團隊亦都喺去年尾提出,大型語言模擬器具有潛在嘅風險,仲質疑佢哋實際上係咪向緊人類可以理解嘅方向發展。

有啲研究員亦都發現,就算改變GPT-3嘅訓練數據,都已經難改變佢對事物嘅偏見,因為呢啲偏見都係喺特定情況下先會產生。

研究員提出咗一啲權宜之計,解決大型語言模型嘅負面問題:例如要制定法律,要啲公司承認人工智能喺幾時寫成呢啲文章;另外訓練多一個人工智能,專門去過濾返寫文章嗰個模擬器寫嘅文。但係以上措施都有待業界去先制定返有關標準。

OpenAI 係 Elon Musk 創立嘅非牟利人工智能研究機構,微軟喺2019都入股投資。

詳盡新聞:VentureBeat