中文字幕一本到无线,日韩欧美中文字幕精品,日本不无在线一区二区三区,亚洲аv天堂无码

記者專欄
當前位置首頁 > 科技新聞 > 正文

可能失控?人工智能語言能力提高引發擔憂

2022-07-28 07:18 來源:參考消息網

  參考消息網7月27日報道 據美聯社7月17日報道,如果你向最新的人工智能架構提出這樣一個問題:做一臺有知覺的計算機或者一只恐龍甚至松鼠是什么感覺?這些人工智能的表現可能已經相當令人信服。但在處理其他看似直截了當的任務時,它們的表現就不是那么好了——有時甚至差勁到了危險的程度。

  以生成型已訓練變換模型3(GPT-3)為例,這是一個由微軟公司控制的系統,可以根據從一個龐大的數字圖書和在線作品數據庫里學習到的知識,生成一段段類似人寫出來的文本。GPT-3被認為是最先進的新一代人工智能算法之一,它能夠進行對話,根據需要生成可讀文本,甚至生成新的圖像和視頻。

  除其他本領外,GPT-3可以寫出你想要的絕大多數文本——例如一封申請動物園管理員工作的求職信,或者一首以火星為背景的莎士比亞風格十四行詩。然而,當美國波莫納學院的加里·史密斯教授就爬樓梯向它提出一個簡單但顯得荒謬的問題時,GPT-3就不知所措了。

  這個人工智能模型回答說:“是的,你可以安全地用手爬樓梯,如果你先把它們洗干凈的話。”

  這些強大的、消耗大量能量的人工智能系統在技術上被稱為“大型語言模型”,因為它們已經接受了大量文本和其他媒介的訓練。這些人工智能系統已經被做成客服聊天機器人、谷歌搜索引擎和為你寫完句子的“自動完成”電子郵件功能。但大多數制造這類人工智能系統的科技公司都對這些系統的內部運作方式諱莫如深,外人很難了解那些可能讓它們變成虛假信息、種族主義和其他危害源頭的缺陷。

  人工智能領域初創企業抱抱臉公司的研發工程師泰旺·勒斯科說:“它們非常擅長寫文本,已經達到人類的熟練程度。它們不太擅長的是闡述事實。有時候看起來非常有條理,幾乎以假亂真,卻是錯的。”

  謹防失控風險

  正因如此,由勒斯科等人共同領導的一個人工智能研究團隊近日在法國政府的幫助下啟動了一個新的大型語言模型。該模型據說是為了解決GPT-3等封閉系統的缺陷。這個團隊叫“大科學”,他們的模型名為大科學大型開放多語言模型。它的主要突破在于可在46種語言下工作,包括阿拉伯語、西班牙語和法語——與大多數聚焦英語或漢語的系統不同。

  并非只有勒斯科的團隊打算破解人工智能語言模型的黑匣子。臉書和Instagram的母公司元宇宙平臺公司也在呼吁采取更開放的方式。該公司正試圖趕上谷歌和美國開放人工智能研究中心所打造的系統。

  元宇宙平臺公司人工智能部門總經理若埃勒·皮諾說:“我們已經看過一個又一個消息,說人們正在從事此類工作,但都非常不透明,幾乎看不到內部情況,也無法窺探這些模型是如何工作的。”

  斯坦福大學計算機科學副教授、基礎模型研究中心主任珀西·梁(音)說,建立最能言善辯或信息量最大的系統——并從其應用中獲利——所帶來的競爭壓力是大多數科技公司嚴格把控這些系統并且不在制定相關規范上展開合作的原因之一。

  梁副教授說:“對一些公司來說,這是它們的秘密配方。”但這些公司也常常擔心如果有失控的情況發生,可能導致有人在使用這些系統時不負責任。隨著人工智能系統編寫健康建議、中學期末論文或政論的能力日益增強,虛假信息可能迅速增加,人們將越來越難以知道這些信息來自人類還是計算機。

  識別“有毒言論”

  元宇宙平臺公司最近推出了一個名為OPT-175B的新語言模型,該模型使用了可公開獲得的數據——從紅迪論壇上的火爆評論到美國專利檔案以及安然公司丑聞中的大量電子郵件。

  元宇宙平臺公司說,它開放了數據、代碼和研發日志,因此外部研究人員可以更容易地通過研究現實中的人們是如何寫文章和溝通的來幫助識別和減輕該模型沾染的偏見,糾正其學到的有毒言論。

  皮諾說:“這件事很難。我們敞開自己,準備迎接大量的批評。我們知道,這個模型會說一些我們不會感到自豪的事。”

  雖然大多數公司都制定了其內部的人工智能防護措施,但梁副教授說,現在需要的是更廣泛的相關規范,以指導研究和決策,比如何時將新模型公之于眾。

  這些模型需要很高的計算能力,以至于只有大公司和政府才能負擔得起,這可不是什么好消息。例如,“大科學”項目能夠訓練其模型,是因為該項目可以訪問法國強大的超級計算機“讓·扎伊”。

  2018年,谷歌推出一種名為BERT的系統,使用一種將句子中的詞語進行比對從而預測語義和語境的技術,這讓追求更大、更智能的人工智能語言模型的趨勢取得了重大飛躍,并且這些模型可以通過大量文本進行“預訓練”。但真正給人工智能世界留下深刻印象的是GPT-3。GPT-3是總部設在舊金山的開放人工智能研究中心在2020年發布的,很快就由微軟獲得了該模型的獨家授權。

  GPT-3帶來了創新實驗方面的繁榮,因為通過付費獲得訪問權限的人工智能研究人員把GPT-3當作一個沙盒來測試人工智能的性能——盡管沒有關于其訓練數據的重要信息。

  糾正模型“偏見”

  開放人工智能研究中心在一篇研究論文中廣泛描述了相關訓練來源,并公開報告了它為應對該技術可能被濫用所做的努力。

  但“大科學”項目聯合負責人托馬·沃爾夫說,開放人工智能研究中心沒有提供它如何過濾這些數據的細節,也沒有向外部研究人員提供有關處理過的數據的訪問權限。

  同時擔任抱抱臉公司首席科學官的沃爾夫說:“所以,我們實際上無法分析GPT-3在訓練時接收到的數據。最近這波人工智能技術浪潮的核心更多地是聚焦數據集而不是模型。最重要的是數據,而開放人工智能研究中心對其使用的數據極其諱莫如深。”

  沃爾夫說,開放語言模型所使用的數據集有助于人類更好地理解模型的偏見。他說,與只在美國接受英語文本訓練的模型相比,接受阿拉伯語訓練的多語言模型就不太可能對伊斯蘭教發表攻擊性言論或產生誤解。

  谷歌的LaMDA是目前最新的人工智能實驗模型之一。該模型在回答問題時給人留下了如此深刻的印象,以至于一名谷歌工程師說它正在接近于有意識——這一說法導致他上個月被停職。

 

(責任編輯:歐云海)

友情鏈接:

可能失控?人工智能語言能力提高引發擔憂

2022-07-28 07:18 來源:參考消息網
查看余下全文