AI如何預測人格特質?
Artificial Intelligence (AI)人工智能之所以受到曙目,不在於它能模擬人類的思考與學習,學人說話或下棋,而是它能接收複雜的資料,進行分析和預測,協助與提升人類作決策的品質 (這與Big Data大數據有異曲同工之妙)。
這也說明為何AI在人力資源領域的應用場景,目前大都用在人才甄選的功能。因為想要預測一個應徵者未來的績效表現或行為傾向,一直是實務界想要解決的問題。
許多研究指出,人格特質不但可以作為個人與工作適配性的指標,也可以用來預測個人與組織的適配性。而五大性格模型( Big Five factors)是目前同時廣被學術和實務界採用的分類法,包括親和性、勤勉審慎、情緒穩定、外向、以及開放性的特質。
要了解一個人的五大性格傾向或給人的印象,除了問卷外,還可以根據許多非口語訊息或肢體語言,例如面部表情、動作、聲音、語氣等。雖然是間接性的推測,但可以避免問卷作假的議題,也常被應用在臨床心理的領域。
一般人或面試者畢竟不是FBI,無法面試過程中觀察並記住應徵者所有的細節,並當下進行嚴謹的分析,就進行推測。此時,就是AI可以派上用場的機會。它不會失誤,一致性高,可以相對精準地記錄並分析應徵者所有的口語與非口語訊息。
目前相關研究證實,面試者的眼神表情可以預測其性格是否外向主動或神精質,而說話的口氣和音調,可以預測認真負責與細心的傾向。英國劍橋大學的兩位學者,在2017年IEEE發表的期刊論文中,運用遞歸神經網路和長短期記憶模型RNN & LSTM,加上信號處理(例如: Mel-Frequency Spectrum)的技術,同時整合分析被面談者的臉部表情、眼神、身體動作、口氣音調,能顯著預測一個人的五大性格。在他們的實驗研究中,AI對最能預測工作績效與組織公民行為的勤勉審慎性,預測力高達0.5 R平方。
而這樣的運算模型,必然會被整合到目前視頻或錄影面試的工具中 (例如 https://hrda.pro)。簡言之,當雇主應用錄影面試在進行人才篩選或會議時,AI也能透過分析影像與聲音,同步提供參與者在五大性格的分佈機率,作為甄選與任用決策的參考。以上也是我接下來近幾年在科技部計畫執行、學術研究、產學合作開發AI人工智能面試工具的重點,分享給大家參考。
https://www.computer.org/csdl/trans/ta/2017/01/07368886-abs.html
rnn論文 在 DeepBelief.ai 深度學習 Facebook 八卦
這篇研究報告在深度學習界引起廣大的討論,最主要的原因是透過科學化的實證(以及這篇論文的作者實在地位高到無法讓人質疑),證明了在五大平台當中,最冷門的微軟CNTK在RNN部分是遠遠秒殺所以有其他平台,速度要快上5~10倍,其餘CNN則是雖任務不同而有差異但是各平台互有領先。這讓我好好回了幾巴掌給那些平常笑說cntk沒人用的其他平台用戶者...
rnn論文 在 台灣物聯網實驗室 IOT Labs Facebook 八卦
工程師也失業?「會寫 AI 的 AI」效率超越人類,Google、MIT 相繼投入開發
認圖片 、 辨聲音 、 下圍棋 、玩 德州撲克 、 開卡車 ⋯⋯似乎越來越多人能玩的事情 AI 也能玩,而且玩得比人還溜。但暫時有一部分人還是自我感覺安全的——工程師的工作 AI 還是很難勝任的對吧?畢竟這個東西需要邏輯思考,需要框架和流程設計,哪裡是 AI 能一下子勝任的事情。但 Google 等公司認為,AI 現在可以開始學習一些 AI 專家做的事情了,那就是寫 AI 程式。
Google Brain 人工智能研究小組的研究人員最近就進行了這樣的嘗試。他們在一次試驗中讓軟件設計了一套機器學習系統,然後對這套系統進行測試語言處理方面的測試。結果發現該系統的表現超過了人類設計的軟件。
Google Brain 團隊首先用遞歸神經網絡生成神經網絡(RNN)的描述,然後利用強化學習對該 RNN 進行訓練。其方法可以讓 AI 從零開始設計出一個新穎的神經網絡架構,在利用 CIFAR-10 數據集(含 6 萬張 32×32 的彩圖,涉及 10 類對象,每一類各 6000 張。其中 5 萬張為訓練圖像,1 萬張為測試圖像)進行圖像辨識測試時,其辨識的精度甚至比人類設計的最好架構還要高,錯誤率僅為 3.84%,與目前最先進的神經網絡模型相比,其錯誤率僅低 0.1 個百分點,但速度快了 1.2 倍。而在用於自然語言處理的 Penn Treebank 數據集上,其模型構造出來的一種遞歸神經單元也超越了被廣泛使用的 LSTM 神經單元等最新基準指標,在複雜度方面比後者好 3.6 倍。
類似地,Google 的另一個 AI 團隊 DeepMind 最近也發表了一篇名為《學會強化學習》的論文。其研究同樣針對的是深度學習所需的訓練數據量大且獲取成本高的缺點。他們提出了一種名為 deep meta-reinforcement learning 的強化學習方法,利用遞歸神經網絡可在完全有監督的背景下支持元學習的特點,把它應用到了強化學習上面。從而將用一個強化學習算法訓練出來的神經網絡部署到任意環境上,使得 AI 在訓練數據量很少的情況下具備了應用於多種場景的元學習能力。或者用 DeepMind 團隊的話來說,叫做「學會學習」的能力,或者叫做能解決類似相關問題的歸納能力。
Google Brain 團隊的負責人 Jeff Dean 最近在回顧 AI 進展情況時,就曾經表態說機器學習專家的部分工作其實應該由軟件來負責。他把這種技術叫做「自動化機器學習」,並認為這是最有前途的 AI 研究方向之一,因為這將大大降低 AI 應用的門檻。
當然,創建學會學習的軟件這個想法由來已久,蒙特婁大學的 Yoshua Bengio 早在 1990 年代就提出了這個想法。但之前的試驗結果並不理想,因為 AI 做出來的東西還是比不上人類想出來的模型。但近年來隨着運算能力的不斷增強,以及深度學習的出現,AI 學會學習的能力終於取得了突破。
儘管 AI 的自學能力取得了突破,但是在近期內還無法大量推廣。因為首先這種能力需要龐大的計算資源。比方說 Google Brain 那個設計出辨識率超過人類所開發系統的圖像辨識系統的 AI ,就需要 800 個 GPU。
但這種情況將來可能會發生變化。最近 MIT Media Lab 也開發出了設計深度學習系統的學習軟件,其所開發出來的深度學習系統的對象辨識率也超過了人類設計的系統。MIT Media Lab 計劃將來把它的這套 AI 開源出來,讓大家繼續這方面的探索。
除了 Google 和 MIT 以外,據報導最近幾個月有好幾個小組也在讓 AI 軟件學習編寫 AI 軟件方面取得了進展。其中包括了非盈利的 AI 研究組織 OpenAI、MIT、加州大學柏克萊分校等。
一旦這類自動式的 AI 技術具備實用性,機器學習軟件在各行業應用的節奏無疑將大大加快。因為目前機器學習專家極為短缺,各家企業組織都需要高薪供養這批人才。
資料來源:http://www.hksilicon.com/articles/1260743