四兩撥千斤! 創新工場首席科學家AI大牛周明博士率瀾舟團隊刷新CLUE新紀錄,輕量化模型孟子一鳴驚人!
本週,中文語言理解權威評測基準CLUE榜單,被「低調」刷新。
不同的是,不是大公司、不是超大模型……
一個新面孔,一個輕量化模型,首戰即登頂,四兩撥千斤。
CLUE榜單近年來由巨頭——騰訊、搜狗、華為、阿里達摩院輪番霸榜的格局,被首次打破。
瀾舟科技-創新工場推出的孟子模型,以十億參數完成了此前百億、千億參數模型刷新的紀錄。
這也是瀾舟科技首次對外曝光,背後團隊負責人,正是創新工場首席科學家、全球AI大牛周明博士。以下文章解釋了這個模型的原理,文章來自《量子位》微信公眾號,經授權轉載。
▎輕量化模型孟子?
孟子,基於瀾舟團隊自研技術研發的大規模預訓練語言模型。
包括創新工場、上海交通大學、北京理工大學等單位參與聯合研發。
可處理多語言、多模態數據,同時支持多種文本理解和文本生成任務,能快速滿足不同領域、不同應用場景的需求。
孟子模型基於Transformer架構,僅包含十億參數量,基於數百G級別涵蓋互聯網網頁、社區、新聞、電子商務、金融等領域的高質量語料訓練。
但誰也沒想到,小模型卻有大智慧,一經登場,打破格局。
CLUE,中文語言理解領域最具權威性的測評基準,涵蓋文本相似度、分類、自然語言推理、閱讀理解等共10項語義分析和理解類子任務。
該榜單競爭激烈,幾乎是業內所有自然語言理解玩家必爭之地。
騰訊、搜狗、華為、阿里達摩院等更是輪番霸榜刷新紀錄。
而且隨著大參數模型愈演愈烈,CLUE還漸有巨頭壟斷之勢。
因為百億、千億甚至萬億參數的大模型,已然不再是創業或其他玩家可與之爭鋒。
萬萬沒想到,瀾舟科技-創新工場團隊出手,四兩撥千斤。
因為孟子,走的是基於輕量級、高效訓練的研究路線,致力於構建十億級別的小模型,充分發揮已有參數下的模型潛力,有利於快速、低成本地落地現實業務場景。
孟子預訓練模型性能比肩甚至超越千億大模型,在包含文本分類、閱讀理解等各類任務上表現出色。
相對已有的中文語言模型,孟子模型實現了多項突破性進展:
1) 堅持「小而精」的輕量化訓練策略。實現在同等模型規模下,遠超公開模型的性能。作為精巧的小模型,對標「巨無霸」,小模型性能超越千億規模模型。
2)使用知識圖譜增強模型,讓 AI 真正獲得知識。孟子模型具備頂尖的語言理解能力,在權威CLUE中文理解評測的總排行榜,以及分類排行榜和閱讀理解排行榜均位列第一,刷新三項榜單世界紀錄。總排行榜分數突破84分,逼近人類基準分數(85.61)。
3)靈活的領域和場景適應能力,方便快速定制和應用。基於T5-style的端到端生成的訓練範式,同步適配BERT-style的判定式架構,既能理解也能生成。便於適配行業應用,覆蓋廣泛業務場景。
當然,隨著孟子一鳴驚人,也必然能讓輕量化模型研究來到聚光燈下。
▎原理方法和應用?
在輕量化模型算法研究方面,基於自研的基於語言學知識、知識圖譜和領域數據增強等技術,從模型架構(包括基礎層Embedding表示和交互層Attention機制)到預訓練策略進行了全方位改進。
具體有四方面:
1) 模型結構方面,將語義角色、詞性標註等語言學特徵融合到Embedding表示中,基於句法約束引入註意力機制中,從而提升模型對語言學知識的建模能力。
2) 訓練策略上,引入基於實體知識和Discourse的Mask機制,強化模型對語言成分和語篇關係的表徵。
3) 為進一步提高訓練效率,使用了大模型蒸餾和初始化小模型策略。
4) 為更好地將孟子模型適應垂直領域如金融、營銷,使用了領域數據繼續訓練並構造相應的提示模版(Prompt),取得了明顯的性能提升。
基於以上算法策略,實現從語料中高效學習涵蓋詞級、句子級和語篇級知識,大幅提升語言模型提煉語言結構和語義信息能力,以及良好的領域遷移能力,適應廣泛的產品應用場景。
另外,在Finetune的進展方面,如何將預訓練模型用於各項任務?
瀾舟團隊也有總結,從數據增強、知識蒸餾、遷移訓練、訓練優化等方面展開了一些探索,進一步提升語言模型的性能:
1) 數據增強:使用領域相關數據;
2) 知識蒸餾:基於Teacher-Student自蒸餾提升訓練效率;
3) 遷移訓練:結合課程學習的思想,由易到難訓練下游模型;
4) 訓練優化:使用多種訓練目標,多角度提升模型能力;
而且孟子還已經展開了垂直化領域應用。
基於領域適應技術,孟子模型已深度垂直化賦能相應行業。典型的例子為適用於金融領域的孟子模型,領域適應策略主要包含兩大方面:
1) 通過大規模的泛金融領域語料,將通用孟子模型遷移到金融領域。金融版孟子模型已經應用於多個金融行業的合作企業,在金融知識圖譜搭建、脫水研報、公告抽取等多個任務上獲得了出色的表現。
2) 通過大規模的營銷領域語料,將孟子模型遷移到數字營銷領域,完成了營銷文案生成、新聞摘要等多項任務,將用於行業頭部的數字營銷公司和多個世界五百強企業的合作之中。
瀾舟方面還透露,孟子模型已在多個領域成功落地實踐,衍生出多項行業領先的產品,涵蓋文本生成、行業搜索、機器翻譯等諸多領域。
並且毫無疑問的是,因為輕量級模型具有的模型參數較少、快速推斷的特點,更易於線上部署和推廣到移動設備中,自然不會局限於現有應用和場景,接下來還會有更廣泛的研究和應用場景中。
▎瀾舟團隊?
最後,也簡單介紹本次一鳴驚人的新面孔瀾舟科技。
瀾舟科技是創新工場孵化的一家認知智能公司。公司創始人——周明博士。
AI領域內,周明已不用過多介紹,他是公認的世界級AI科學家,自然語言處理領域的代表性人物。
周明博士在2020年加盟創新工場,擔任創新工場首席科學家。
而瀾舟科技則針對商業場景的數字化轉型,基於大數據、知識圖譜和行業模型,提供新一代的信息檢索、知識推理和商業洞見技術和相關產品。
據稱目前已與國內外幾十所著名高校和十餘個相關領域的頭部企業建立了穩定的合作關係。
值得注意的是,瀾舟科技除了大牛坐鎮,其實也是行業趨勢的體現。
引用創新工場董事長兼CEO李開復最新分享來說:
AI的發展可以按照兩個時間點劃分。
第一個時間點是2015年,以CNN為核心的計算機視覺技術讓機器超越了人類,帶來了人臉識別、智能質檢、無人零售、智慧城市、無人駕駛等商機。
而第二個時間點出現在2019年,以大模型為代表的自然語言方向取得突破性進展,讓NLP從數據、信息走向知識和洞見成為可能,將會在翻譯、語音識別、法律、金融、新聞、廣告、醫療、娛樂等大賽道帶來機遇。
「如果說CNN造就了今天計算機視覺領域的突破和眾多應用,預訓練大模型+微調也將帶來自然語言的百花齊放的發展,用數據智能驅動各類業務的升級。瀾舟科技在周明老師的帶領下取得了今天的成果,在新機遇面前躬身入局,一起發掘NLP領域的黃金發展期」,李開復說到。
同時也有5部Youtube影片,追蹤數超過3萬的網紅Ride? バイクチャンネル,也在其Youtube影片中提到,バイクに乗る時の姿勢は、「上虚下実」。自然体の姿勢でライディングするのがいい! そう語り、その方法を伝授してくれた片山敬済さん。 今回は、自然体を身につけるために訓練法を教えてもらいます。 「自然に、カラダのチカラを抜いてバイクライディングを!」 ・・・そう言われても、ついつい体の各部にチカラが...
bert訓練 在 李開復 Kai-Fu Lee Facebook 八卦
2020人工智慧的預測~
本文來自量子位微信公眾號 QbitAI
…………………………………………………………
吳恩達邀請9位AI大牛暢想2020:李開復看好醫療教育,LeCun強調自監督學習
2020,AI的研究會有哪些突破?
2020,AI的應用又會有什麼變化?
吳恩達DeepLearning.ai旗下的THE BATCH刊物,分享了包括Yann LeCun、李開復、周志華、還有他們的老闆吳恩達在內的10位AI大佬的新年寄語,以及對AI在2020年能有什麼突破的“新年願望”。
一起來看看吧~
▌吳恩達:保持學習和好奇心
在這份「新年寄語篇」的開頭,吳恩達作為發起人開場,總體是一些關於學習新知識的碎碎念。
吳恩達說,他每年冬天的假期都會圍繞一個新的主題進行學習。
比如10年前的那個冬天,他的學習主題是教育學,雖然當時他拖著十分沉重的書箱在機場趕路,但對教育學的研究的確為後來線上學習平臺Coursera的成立起到了幫助。
而去年,當時他的寶貝女兒Nova還在母親腹中,吳恩達就在冬天讀了很多育兒書籍。
而這個冬天,吳恩達說他在研究續命——包括遺傳學、還有誇克什麼的在內的新興科學,還實地探訪去拜見了自己101歲的爺爺,爺爺用親身經歷告訴他:
長壽的秘方,就是保持好奇心。
照這個規律,吳恩達覺得自己的關注者裡會有不少人能在101歲之後依然活蹦亂跳的。
最後,吳恩達祝大家過一個充滿好奇心、學到新東西、有愛的2020年。
▌李開復:AI將在更多行業落地
李開復的新年寄語主題,是AI無處不在。他說:
人工智慧已經從發現的時代到了落地的時代。在我們主要在中國的投資組合中,我們看到了在銀行、金融、運輸、物流、超市、飯店、倉庫、工廠、學校和藥物研發中使用人工智慧和自動化技術的應用。
但是,從整體經濟的角度來看,只有一小部分企業開始使用AI,這表明AI還有巨大的增長空間。
我相信,在人類技術進步的歷史上,AI將與電力同等重要。在未來的一二十年中,人工智慧將滲透到我們的生活和工作中,從而提供更高的效率和更智慧的體驗。現在正是企業、機構和政府充分擁抱AI並推動社會前進的時機。
我對AI在醫療和教育上的影響非常興奮。這兩個行業已經為AI的部署做好了準備。
我們投資了一家使用AI和大數據優化供應鏈的公司,從而緩解了超過1.5億中國農村人口的藥品短缺情況。我們也在投資用深度學習來生成化合物的藥物研發公司,以將藥物發現時間縮短三到四倍。
在教育方面,我們看到一些公司正在用AI改善學生的英語發音,幫助學生提升成績,用個性化和遊戲化的方式説明學生學習數學。這將使教師從日常工作中解放出來,並使他們能夠花時間為新興一代的學生做更多鼓勵性的工作。
我希望看到更多明智的企業家和公司在2020年及以後的幾年中開始使用AI來幫助他們獲得更大的好處。
▌LeCun:自監督學習帶來AI革命
深度學習三巨頭之一、圖靈獎得主Yann LeCun的新年寄語主題,是Learning From Observation。
讓人忍不住把它翻譯成“格物致知”。
“格”的是開車這件小事。LeCun提到,人類學開車只要幾十個小時,但是模仿學習演算法需要學幾十萬個小時,強化學習演算法甚至需要學幾百萬個小時,這裡面一定有什麼問題。
人類可以高效學習,是因為我們人在腦海裡建立了世界的模型。嬰兒很難和世界互動,但是在剛出生的幾個月裡,他們通過觀察吸收了大量關於這個世界的背景知識。顯然,大腦的很大一部分被用在了理解世界的結構,並預測一些無法直接觀察到的事物,比如未來才會出現的東西、或者被隱藏的事物。
因此,AI的前進方向,就是自監督學習(self-supervised learning),它和監督學習類似,但是並不會訓練系統去把資料分類,而是我們隱藏一些部分,讓後讓機器預測丟失的部分,比如把視頻的一些幀抹掉,然後訓練機器根據剩餘的幀來填補被抹掉的部分。
最近,這種方法在NLP方面非常成功。諸如BERT、RoBERTa、XLNet、XLM之類的模型以自監督的方式進行訓練來預測文本中缺少的單詞,它們在所有主要的自然語言基準測試中都有記錄。
希望在2020年,自監督學習能夠用在視頻和圖像上。它會在視頻這類高維連續資料上創造類似的革命嗎?
其中一項嚴峻的挑戰是應對不確定性。像BERT這樣的模型無法判斷句子中丟失的單詞是“貓”還是“狗”,但是它們可以產生概率分佈向量。對於圖像或視頻幀,我們沒有一個好的概率分佈模型。但是最近的研究非常接近,或許我們很快就會發現這樣一個模型。
這樣,我們就能用很少的視頻訓練樣本,來實現非常好的性能預測、動作預測,而這在以前是不可能的。
當這個想法實現的時候,2020年就會是AI領域非常激動人心的時刻。
▌周志華:方法創新,方針明確
南京大學周志華教授對2020年有三個希望:
1、希望能夠出現深度神經網路以外的高級機器學習技術。神經網路已經被許多研究人員、工程師和從業人員研究並應用了很長時間,其他機器學習技術為創新提供了相對未開發的空間。
2、希望AI可以涉足更多領域,為人們的日常生活帶來更多積極的變化。
3、希望研究人員、工程師和從業者們對於如何採取措施防止AI技術的錯誤開發和濫用進行更多的思考和討論。
▌Anima Anandkumar:模擬的力量
Anima Anandkumar是英偉達機器學習的總監,也是加州理工的電腦教授。
Anandkumar教授提到,在模擬環境學習中訓練演算法會讓網路更為強大,並且能類比各種複雜的情況,在一些情況下可以解決研究人員資料不夠的問題。
她所在的加州理工已經用物理模型來類比真實資料,用深度學習進行地震預測的研究;英偉達也推出了模擬平臺Isaac。
她希望,2020年AI科學家們能認識到在類比環境中進行訓練的價值,並在新的一年產生更為重大的AI進步。
▌Oren Etzioni:工具創造平等
Oren Etzioni是艾倫人工智慧研究所的首席執行官、華盛頓大學電腦教授、Madrona資本合夥人。
他認為,AI界花了很多時間討論演算法的公平和透明性,但在應用上,AI還可以為社會提供更多幫助,比如為行動不便的人提供無障礙技術,解決教育、流浪者、人口販賣的問題,AI能對人們的生活品質產生巨大的積極影響,但現在AI界對此的研究和探討只浮於表面。
因此,他希望2020年AI界能用切實的手段讓這些處於不利地位的人受益,讓世界更公平。
▌Chelsea Finn:泛化的機器人
Chelsea Finn是斯坦福電腦科學與電氣工程助理教授。
她認為,目前的許多AI技術都能在圍棋等特定任務上取得非常好的成績,但在泛化方面做得還不夠,無法用一個機器人來完成多個任務。
比如,識別ImageNet上的圖片需要一個模型,但如果機器人需要與環境交互,那為每個任務都創造一個ImageNet那麼大的資料集是不切實際的。
因此,她也在進行更多賦予機器人泛化能力的研究。如果強化學習的臨界品質發展和泛化有所突破,會是非常令人振奮的事情。如果能應對這些挑戰,機器人會比現在的更加智慧,而不僅僅是停留在實驗室裡。
▌David Patterson:快速訓練與推理
David Patterso是加州大學伯克利分校的電腦科學教授,RISC-V國際開源實驗室負責人,也是ACM和IEEE的Fellow。
他說,過去一年,阿裡巴巴、 Graphcore和英特爾等公司都在研發專門的人工智慧處理器,而這些晶片將慢慢進入研究實驗室和資料中心。
他認為,投資數十億美元打造新穎的人工智慧硬體將在2020年初見成效。
並希望人工智慧社區能接受其中最好的晶片,來推動這個領域朝著更好的模型和更有價值的應用方向發展。
▌Dawn Song:要對資料負責
Dawn Song是安全領域的頂尖學者之一,1996年本科畢業於清華大學,現在是加州大學伯克利分校(UC Berkeley)電腦科學和電子工程教授,也是Oasis Labs 首席執行官和聯合創始人。
她認為,人們對敏感性資料的收集正在迅速增加,幾乎涵蓋了人們生活的方方面面。但使用者幾乎無法控制他們生成的資料如何被使用。與此同時,企業和研究人員在利用資料方面面臨著諸多挑戰。
在她看來,這種資料收集方式將個人和企業置於危險之中,她希望2020年應該是為負責任的資料經濟打下基礎的一年。
這需要創造新的技術、法規和商業模式。Dawn Song認為,2020年在在機器學習方面仍然存在更大的挑戰,要打造可擴展的系統來為實際部署大型、異構資料集服務,聯邦學習的進一步研究和部署對於某些用例也很重要等等。
▌Richard Socher:資訊海洋已經沸騰
Richard Socher博士畢業于斯坦福大學電腦系。2016年,自己創辦的公司被Salesforce收購後,加入Salesforce,現在是Salesforce的首席科學家。
他認為,如何處理鋪天蓋地的事實、意見和觀點仍然是一個挑戰。
比如,在你沒有讀過一個冗長的文檔之前,你很難知道你會在裡面找到什麼資訊。而且,想要知道某個特定的陳述是否正確也非常困難。
在他看來,自動提取摘要可以解決這些問題,2020年,這一技術將會迎來重大發展,改變我們消費資訊的方式。
不僅能説明人們應對不斷湧現的新資訊,而且還能讓人們進一步擁抱人工智慧的巨大潛力,創造一個更美好的世界。
原文傳送門:
https://blog.deeplearning.ai/blog/the-batch-happy-new-year-hopes-for-ai-in-2020-yann-lecun-kai-fu-lee-anima-anandkumar-richard-socher
bert訓練 在 DeepBelief.ai 深度學習 Facebook 八卦
23秒訓練Bert,又是貧窮限制了我的想像力
https://mp.weixin.qq.com/s/W8gcTJHhLaRQpm64PfzT5w
bert訓練 在 Ride? バイクチャンネル Youtube 的評價
バイクに乗る時の姿勢は、「上虚下実」。自然体の姿勢でライディングするのがいい!
そう語り、その方法を伝授してくれた片山敬済さん。
今回は、自然体を身につけるために訓練法を教えてもらいます。
「自然に、カラダのチカラを抜いてバイクライディングを!」
・・・そう言われても、ついつい体の各部にチカラが入っちゃって・・・。
自然体って意外と難しいしんですよね。だからその為のテクニックや方法が重要になってくる。
片山敬済さんも、バイクライディングテクニックを向上させる目的で、自然体を身につける為に、相当の苦労と努力をされたらしい。
自然体を身につけるために重要な要素、そして方法は、意識的に体のチカラを抜くことが大切。
【撮影協力:TILE CAFE】
■神戸・三宮「TILE CAFE」(食べログ)
https://tabelog.com/hyogo/A2801/A280101/28002199/
■『RIDE? ~Hop on the Motorcycle~』って?
オートバイレースの元世界チャンピオン:片山敬済さんと一緒に配信する「バイクチャンネル」。
テーマは、安全に、楽しく、かっこよくバイクライフをおくるためのノウハウやテクニック、考え方や心構えなど。
いっこうにライディングスキルが上達しない、フツー・・・?のライダーの山ちゃんが、誰よりも速く世界中のサーキットを駆け抜けた世界のカタヤマに、バイクの基本的なライディングテクニックやマナー、そして、バイクライフをより豊かに楽しむ為のヒントやヒケツを聞いていきたいと思います。
初心者や中級ライダーは勿論、ベテランライダーの皆さんにとっても、役立つ情報を配信していきたいと思います。
**********************************
■片山敬済さんが代表を務める民間レベルの緊急災害対策チーム「BERT」のオフィシャルサイト
http://bert-japan.org/
■山ちゃんインスタグラム(yamabata_hideaki)
https://www.instagram.com/yamabata_hideaki/
■山ちゃんが動画制作した作品集:Youtubeチャンネル
https://www.youtube.com/c/HIDEAKIYAMABATA
**********************************
#片山敬済 #バイク#テクニック #方法 #バイク動画 #バイクチャンネル #ライディングテクニック #自然体 #力を抜く

bert訓練 在 珊蒂微AI Youtube 的評價
(上集)
這集【人物專訪】來到台灣大學跟一位「宅男味很重」的電機系老師合作拍攝影片,他的研究風格 and 教學風格充斥著:二次元動漫梗、PTT鄉民詞彙、寶可夢、周星馳電影梗…等等元素,甚至還摻雜了一點鄉土劇的成分在他的研究與教學當中…
ㄟ!我不是在詆毀他喔,他這樣的研究跟教學風格可是大受學生歡迎呢!他是誰呢?!
#台灣大學電機系
#李宏毅的宅男之力
#AI神奇模型訓練師
#珊蒂微AI
#人工智慧
#AI

bert訓練 在 珊蒂微AI Youtube 的評價
(下集)
🍿在下集當中,李老師跟大家聊的內容有:
1. 老師的宅男風格教學之力
2. 老師在2020年春季將會開一門全新課程!
3. 老師「請公子吃電信餅」🍪🍪🍪
4. 老師的「台大語音實驗室」都在做什麼?
🤖五個研究方向
🤖GAN來GAN去
🤖神奇模型「Multi-BERT」
5. 台大傅鐘的老梗笑話
6. 最後有李宏毅老師秘辛大爆料
🍿影片中提到的五個研究主題,李老師都精選了一篇論文,連結如下,請各位大大笑納:
非督導式語音辨識: https://arxiv.org/abs/1904.04100
非督導式語音轉換: https://arxiv.org/abs/1804.02812
非督導式文件摘要: https://arxiv.org/abs/1810.02851
問答系統: https://ieeexplore.ieee.org/document/8700217
個人化聊天機器人: https://arxiv.org/abs/1901.09672
#GAN來GAN去
#台大電機李宏毅專訪
#AI神奇模型訓練師
#珊蒂微AI
#人工智慧
#AI

bert訓練 在 BERT (预训练Transformer模型) - YouTube 的八卦
... 模型是目前机器翻译等NLP问题最好的解决办法,比RNN有大幅提高。Bidirectional Encoder Representations from Transformers ( BERT )... ... <看更多>