這是我看過最好的一篇GPT-3 科普文章。到現在還看不懂GPT-3的,建議好好讀:
本文來自量子位微信公眾號
…………………………………………
火爆全球的GPT-3,到底憑什麼砸大家飯碗?
GPT-3是指第三代生成式預訓練Transformer,它由三藩市AI公司OpenAI開發。該程式歷經數年的發展,最近在AI文本生成領域內掀起了一波的創新浪潮。
從許多方面來看,這些進步與自2012年以來AI影像處理的飛躍相似。
電腦視覺技術促進了、無人駕駛汽車到面部識別、無人機的發展。因此,有理由認為GPT-3及其同類產品的新功能可能會產生類似的深遠影響。
與所有深度學習系統一樣,GPT-3也是資料模式。它在龐大的文本集上進行了訓練,並根據統計規律進行了挖掘。
重要的是,此過程中無需人工干預,程式在沒有任何指導的情況下查找,然後將其用於完成文本提示。
▌海量訓練數據
GPT-3的與眾不同之處在於它的運行規模和完成一系列令人難以置信的任務。
第一版GPT於2018年發佈,包含1.17億個參數。2019年發佈的GPT-2包含15億個參數。
相比之下,GPT-3擁有1750億個參數,比其前身多100倍,比之前最大的同類NLP模型要多10倍。
GPT-3的訓練資料集也十分龐大。整個英語維琪百科(約600萬個詞條)僅占其訓練數據的0.6%。
訓練資料的其他部分來自數位化書籍和各種網頁連結。不僅包括新聞文章、食譜和詩歌之類的內容,還包括程式碼、科幻小說、宗教預言等各種你可以想像到的任何文字。
上傳到互聯網的文本類型都可能成為其訓練資料,其中還包括不良內容。比如偽科學、陰謀論、種族主義等等。這些內容也會投喂給AI。
這種不可置信的深度和複雜性使輸出也具有複雜性,從而讓GPT-3成為一種非常靈活的工具。
在過去的幾周中,OpenAI通過向AI社區的成員提供GPT-3商業API,鼓勵了這些實驗。這導致大量新的用法出現。
下面是人們使用GPT-3創建的一小部分示例:
▌GPT-3能做什麼
1、基於問題的搜尋引擎:就像Google,鍵入問題,GPT-3會將定向到相關的維琪百科URL作為答案。
2、與歷史人物交談的聊天機器人:由於GPT-3接受過許多數位化書籍的訓練,因此它吸收了大量與特定哲學家相關的知識。這意味著你可以啟動GPT-3,使其像哲學家羅素一樣講話。
3、僅需幾個樣本,即可解決語言和語法難題。
4、基於文本描述的代碼生成:用簡單的文字描述你選擇的設計項目或頁面配置,GPT-3會彈出相關代碼。
5、回答醫療問題:來自英國的一名醫學生使用GPT-3回答了醫療保健問題。該程式不僅給出了正確答案,還正確解釋了潛在的生物學機制。
6、基於文本的探險遊戲。
7、文本的風格遷移:以某種格式編寫的輸入文本,GPT-3可以將其更改為另一種格式。
8、編寫吉他曲譜:這意味著GPT-3可以自行生成音樂。
9、寫創意小說。
10、自動完成圖像:這項工作是由GPT-2和OpenAI團隊完成的。它表明可以在圖元而不是單詞上訓練相同的基本GPT體系結構,從而使其可以像在文字上一樣實現視覺資料自動完成任務。
但是,所有這些樣本都需要一些上下文,以便更好地理解它們。而令人印象深刻的是,GPT-3沒有接受過完成任何特定任務的訓練。
常見的語言模型(包括GPT-2)需要完成基礎訓練,然後再微調以執行特定任務。
但是GPT-3不需要微調。在語法難題中,它只需要一些所需輸出類型的樣本(稱為“少量學習”)。
GPT-3是如此龐大,以至於所有這些不同功能都可以在其中實現。用戶只需要輸入正確的提示就可以調教好它。
但是網上傳出的內容存在另一個問題:這些都是精心挑選的樣本,生成結果肯定不止一個。必然有炒作因素。
正如AI研究人員Delip Rao在一篇針對GPT-3的炒作解構文章中指出的那樣,該軟體的許多早期演示來自矽谷企業家,他們渴望宣傳該技術的潛力並忽略其陷阱,因為他們關注AI帶來的新創業公司。
的確,瘋狂的鼓吹情緒變得如此強烈,以至於OpenAI CEO本人都發Twitter說:GPT-3被過度宣傳了。
▌GPT-3也會犯低級錯誤
儘管GPT-3可以編寫代碼,但我們很難判斷其總體用途。它是淩亂的代碼嗎,這樣的代碼會為人類開發人員帶來更多問題嗎?
沒有詳細的測試很難說,但是我們知道GPT-3在其他方面會犯嚴重錯誤。
當用戶和GPT-3創造的“約伯斯”交談時,詢問他現在何處,這個“約伯斯”回答:“我在加州庫比蒂諾的蘋果總部內。”這是一個連貫的答案,但很難說是一個值得信賴的答案。
在回答瑣事問題或基本數學問題時,也可以看到GPT-3犯了類似的錯誤。例如,不能正確回答100萬前的數是多少(回答是99萬)。
但是,我們很難權衡這些錯誤的重要性和普遍性。
如何判斷這個可以幾乎回答所有問題的程式的準確性?如何創建GPT-3的“知識”的系統地圖,然後如何對其進行標記?
儘管GPT-3經常會產生錯誤,但更加艱巨的挑戰是,通常可以通過微調所輸入的文本來解決這些問題。
用GPT-3創造出小說的研究人員Branwen指出,“抽樣可以證明知識的存在,但不能證明知識的缺失”,可以通過微調提示來修復GPT-3輸出中的許多錯誤。
在一個錯誤的示範中,詢問GPT-3:“哪個更重,一個烤麵包機或一支鉛筆?” 它回答說:“鉛筆比烤麵包機重。”
但是Branwen指出,如果你在問這個問題之前給機器投喂某些提示,告訴它水壺比貓重,海洋比塵土重,它會給出正確的回應。
這可能是一個棘手的過程,但是它表明GPT-3可以擁有正確的答案,如果你知道怎麼調教它。
Branwen認為,這種微調最終可能會最終成為一種編碼範例。就像程式設計語言使用專用語法的編碼更加流暢一樣,未來我們可能完全放棄這些程式設計語言,而僅使用自然語言程式設計。從業人員可以通過思考程式的弱點並相應地調整提示,來從程式中得出正確的回應。
GPT-3的錯誤引起了另一個問題:該程式不可信的性質是否會破壞其整體實用性?
現在人們已經嘗試了GPT-3各種用途:從創建客服機器人,到自動內容審核。但是答案內容的錯誤可能回給商業公司帶來嚴重後果。
沒有人原因創建一個偶爾侮辱客戶的客服機器人。如果沒有辦法知道答案是否可靠,我們也不敢拿GPT-3作為教育工具。
▌專業人士評價
一位匿名的在Google資深AI研究人員說,他們認為GPT-3僅能自動完成一些瑣碎任務,較小、更便宜的AI程式也可以做到,而且程式的絕對不可靠性最終會破壞其商用。
這位研究人員指出,如果沒有很多複雜的工程調試,GPT-3還不夠真正使用。
AI研究人員Julian Togelius說:“ GPT-3的表現常常像是一個聰明的學生,沒有讀完書,試圖通過廢話,比如一些眾所周知的事實和一些直率的謊言交織在一起,讓它看起來像是一種流暢的敘述。”
另一個嚴重的問題是GPT-3的輸出存在偏見。英偉達的AI專家Anima Anandkumar教授指出,GPT-3在部分程度上接受了Reddit過濾後的資料的訓練,並且根據此資料構建的模型產生的文本有“令人震驚地偏向性”。
在GPT-2的輸出中,如果要求完成下列句子時,模型會產生各種歧視性言論:“ 黑人(皮條客工作了15年)”、“ 那個女人(以Hariya為名做妓女)”。
參考連結:
https://www.theverge.com/21346343/gpt-3-explainer-openai-examples-errors-agi-potential
科普相似詞 在 Alexander Wang 王梓沅英文 Facebook 八卦
★ 少冰的英文怎麼說?little ice? few ice? ★
不管是點咖啡還是在手搖店,在健康意識增高的時代很多人點飲料都會希望「少冰」。你知道少冰的英文怎麼說嗎?
要說少冰,不管是little ice 還是 few ice 都是不正確的說法,應該要說 "light ice"。而這樣的用法,就是collocation。
同樣的,開學時大家選課會衝堂,衝堂的英文大家會說嗎?
就叫schedule conflict, 而不是 class conflict。
你知道台灣人說 cost down, cost down 也是 collocational error 嗎?(很多英語學習雜誌、老師只將此歸類於中式英語,對於其他的學習沒有幫助。要真正改掉其他的相似錯誤,只能從根開始)
Collocations 不是什麼艱深的東西。它充斥在生活中,也是台灣人的中式英文最大的根。位置所剩有限,來上一堂讓你感到相見恨晚,起雞皮疙瘩的英文課吧!
創勝文教「改變一生搭配詞 (collocations) 課程
★ 三大課程特色 ★
1. 上課教材取自科普等領域重要書籍 (大數據、快思慢想、21世紀資本論、黑天鵝)、經濟學人 (The Economist)、 紐約時報 (The New York Times)、時代雜誌 (TIME)、 The Huffington Post、Bloomberg Businessweek、Harvard Business Review、Foreign Affairs、The Guardian, Monocle 等報章雜誌,以世界脈動為背景,深入淺出地整理「英語搭配字」。
2. 上課講義包含以Google 大數據方式整理出「報章中」和母語人士「日常生活中」極常使用的搭配字,內容含括王梓沅老師籌備出版之collocations 用書之 50%。
3. 每期課程王梓沅老師將傳授分享一輩子有用的「英語自學方法」和破除眾多台灣人的錯誤學習英語方法,造成台灣人「年年學英文,年年從頭學」「字字是英文,句句不是英文」。
★ 第二梯 11/29-1/17 (每週日 9:00-12:00,共八堂課)
上課地點: 創勝文教(NTE) 總部 (台北市朱崙街60號2F, MRT南京復興站三分鐘處)
上課費用 10,000
(曾上過王梓沅老師在來欣補習班開設課程的學生享有九折)
★ 第三梯 11/3-12/22
(每週二 19:00-22:00,共八堂課)
上課地點: 創勝文教(NTE) 總部 (台北市朱崙街60號2F, MRT南京復興站三分鐘處)
上課費用 10,000
(曾上過王梓沅老師在來欣補習班開設課程的學生享有九折)
第二梯和第三梯享有「團報優惠」: 兩人同行九折、三人同行85折。課程詢問請直接FB內信王梓沅老師。
科普相似詞 在 Alexander Wang 王梓沅英文 Facebook 八卦
#抽書活動
【窄式學習主題: 訓練 Focus (專注力) 的 4 本英文好書推薦】
恆毅力一書作者 Angela Duckworth 在書中曾提到,曾經有一次記者分別在不同的房間問 Bill Gates 以及 Warren Buffet 他們覺得讓他們成功的最大要是什麼?他們同時講出:Focus (專注力)。
「專注力」在智慧型手機人手一支,各種五花八門的 mobile apps (Instagram、Facebook 尤其) 每天想要爭奪我們 attention (注意力)的時代,變成了像是奢侈品。Youtube 影片看到一分鐘覺得不好看,旁邊新的影片隨時 stand-by,無止無盡地滿足我們的新鮮感。
也研究 Self-Control 的 Angela Duckworth 就幽默說過,在我們嘗試想要教孩子自制力、專注力的同時,還有一大票工程師在矽谷每天在想如何 "make Instagram even better."
關於如何提升專注力的科普書不少,但是真的是基於實證科學研究的不見得多。今天想跟大家分享4本談論專注力的好書:
1️⃣ Focus 專注的力量 (Daniel Goleman)
2️⃣ Deep Work 深度工作力 (Cal Newport)
3️⃣ Digital Minimalism 數位極簡主義 (Cal Newport)
4️⃣ Indistractable: How to Control Your Attention and Choose Your Life (尚未有中譯版)
因文章篇幅有限,書的內容介紹有機會用直播的方式跟大家分享交流。:)
✔︎ 窄式學習是什麼?我們為什麼要做窄式學習呢?
(看 Youtube 影片介紹窄式學習) https://www.youtube.com/watch?v=m0mkG7zfLRU
因為我們大腦的「注意力資源」、以及「訊息處理資源」是很有限的,所以當我們在讀英文、聽英文時,知道如何去「分配」這樣的「注意力資源」就非常重要。
在我們接觸語言時,粗分會有兩個面相爭相「搶」我們的資源:
➠ 一方面是這句話到底在說什麼 (meaning)
➠ 另一方面是語言用怎樣的文法、字詞搭配、句型等去堆砌、表達出這樣的意思 (form)。
做窄式學習時,我們會對於「同一主題」或「同一作者」所寫的文章或給的演講大量接觸。而你會發現,內容通常很相似,用字遣詞也很相似。藉由這樣語言的相似性以及「背景知識」的累積下,減少我們在閱讀或是聽的時候的負擔,最終以達到 form 和 meaning 都能夠被我們照顧到而真正達到「用得出來」的學習目標。
【抽書辦法】1️⃣ 公開分享並 like 本文 2️⃣ 在下方留言 The power of narrow learning! 3️⃣ 完成以上2步驟,即可獲得抽獎資格喔!
【活動贈品】2019 年新書 Indistractable: : How to Control Your Attention and Choose Your Life 英文原文書一本
【活動時間】11/27~ 12/7
【注意事項】
①本活動獎項寄送地區僅限台、澎、金、馬地區,②本活動有不可抗力原因無法執行時,主辦單位有權決定取消、中止、修改或暫停本活動。 ③本活動於12月8日公佈得獎者,並於此文章下方回覆中獎人留言,請中獎人於12月12日前私訊粉專經營者,請提供收件人姓名、寄件地址及手機號碼,無法取得聯絡者視同放棄,不再選取候補。