您現在的位置是:首頁 > 足球

如何理解李飛飛價值十億美金的“人文AI”計劃?

  • 由 鈦媒體APP 發表于 足球
  • 2021-10-28
簡介十億美金的遠大目標李飛飛在斯坦福主導的HAI專案,大概有著以下三個目標:第一是推進和發展下一代AI科學(重點在於腦科學和認知科學),第二是研究和預測AI對人類社會和生活的影響,第三是設計和實踐以人為本的AI技術和應用

十億美金什麼概念

如何理解李飛飛價值十億美金的“人文AI”計劃?

圖片來源@視覺中國

文 | 腦極體

AI自從以應用角度走進大眾視野,就一直逃不出“人文主義”的苛責。作為一種依靠於海量資料運轉的技術,AI之所以能夠作為提升效率的工具,主要還是因為對人類經驗的高度集中。

而“人類經驗”這件事,本身就是不夠完美的。普遍能夠累積成海量資料的經驗,有時反而更加充滿偏見。就像如果把AI帶入哥倫布時代,AI也會成為一位堅定的地心論支持者。

而李飛飛離開谷歌迴歸斯坦福後,主導的第一個專案HAI——以人為本人AI研究院(Stanford Human-Centered AI Institute),就在著重解決AI與人文主義之間的溝壑。

AI 擬人化,竟是一位“富裕的白人男性”?

首先要知道的,究竟是什麼讓AI無法“以人為本”?

目前從人文、從公平的角度來看,AI公認的兩個問題是“白人至上(White Guy Problem)”和“男性之海(Sea of Dudes)”。

所謂白人至上,是指在演算法驅動下AI所做出的一些種族歧視行為。例如谷歌的圖片自動分類曾經將黑人照片分類成大猩猩,以及惠普的攝像頭演算法無法識別深膚色的人。在犯罪預測軟體中,甚至會將黑人的犯罪率識別成普通白人的兩倍以上。

而男性之海,則指的是AI從業者中有極大的性別傾斜,在2015年的NIPS上,女性與會者的人數竟然只佔到了13。7%,李飛飛提到,在論文引用量,男性作者的被引用次數要比女性作者高100倍。

如何理解李飛飛價值十億美金的“人文AI”計劃?

用《紐約時報》的話講,兩者結合,讓AI被塑造出了一個“富裕白人男性”的價值觀——剛好和那些掌握著科技霸權的企業主們一模一樣。

如此以來,對於AI的應用很可能反而會讓人們一直以來對於推動種族、性別間平等所做的努力白費。

就像平權主義者一直在推動男女收入平等,而去年卡內基梅隆大學的計算機科學家卻發現,在谷歌的廣告推送機制中,更傾向於將高收入工作的招聘廣告推送給男性使用者。

而當美國各地警察部門在執行預測性警務工作時,資料驅動的風險評估工具會讓他們更多的前往有色人種聚集區,無形中加重了對某一人群的偏見和標籤化。

可怕的是,當女性在職場上遇到歧視時,她還可以對自己情況進行發聲。而當AI驅動一切在無聲中進行時,女性甚至不知道自己正在處在歧視鏈之中——如果從沒見過這項招聘啟事,女性自然不知道高收入工作更傾向於招聘男性。

而當AI行業中充斥著“富裕的白人男性”時,他們自然也很難注意到演算法黑箱中產生了這樣的問題。最終萬事萬物都在人類歧視造就的規則下執行,被驅動的每一個群體卻又看不清規則的真正面目。

十億美金的遠大目標

李飛飛在斯坦福主導的HAI專案,大概有著以下三個目標:第一是推進和發展下一代AI科學(重點在於腦科學和認知科學),第二是研究和預測AI對人類社會和生活的影響,第三是設計和實踐以人為本的AI技術和應用。

這麼一看,所謂“以人為本”的說法其實挺虛的。但綜合斯坦福的一些公開資料,以及李飛飛的一些講話,我們可以大概總結出HAI究竟想做些什麼。

首先是在AI研究中引入更多樣化的視角和交叉思維。

最主要的,就是支援女性和有色人種進入AI研究。例如斯坦福所支援的“Black in AI”專案,就在號召有色人種關注目前的AI研究,關注AI無形中所帶來的歧視問題。

同時還有持續追蹤各個領域應用AI後所帶來的影響。

初次之外,HAI還邀請了社會各界人士共同參與,如教育、工業、藝術等等領域,試圖讓他們一起發表意見,尤其是對技術研發者給出反饋,告訴他們AI究竟對這一領域產生了哪些影響,以權衡技術的未來走向。

至於推動下一代AI科學就很好理解了,主要是幫助研究者圈定研究方向,推動AI的可解釋性等等,這裡就不再進行贅述。

如何理解李飛飛價值十億美金的“人文AI”計劃?

但有趣的是,HAI作為一個非常政治正確並偉光正的專案,並沒有在輿論獲得一致性的支援。尤其有媒體指出,該機構有121位教職工,其中有100位以上都是白人,並只有30%的女性。

於是事情就變成了,HAI邀請了一群富裕的白人男性,試圖募集10億美金去從人文角度矯正人工智慧的“富裕白人男性”價值觀。

齒輪之下:如何看待商業效率以外的 AI ?

雖然HAI獲得的評價不一,但AI所帶來的公平性問題,確實已經開始影響人們的正常生活。

就像上文提到的演算法錯誤估計有色人種犯罪率將其提升了兩倍,同樣意味著演算法將白人的犯罪率錯誤的低估了兩倍。如果執法者依賴這種錯誤的演算法,則意味著不僅可能冤枉好人,也可能錯放壞人。

又比如前兩年亞馬遜曾經鬧出的醜聞,使用者發現演算法在分配貨物能否當日送達時,一旦輸入了黑人聚集區的郵政編碼,就無法使用當日送達服務。

如何理解李飛飛價值十億美金的“人文AI”計劃?

(被評價為“高風險”的有色人種,和擁有數次犯罪記錄卻被評定為低風險的白人)

這種偏見現象正在越來越多地出現在種種服務中:貸款的AI風控、保險的AI稽核機制。最後就導致了越是弱勢群體,越容易被演算法邊緣化,進而難以獲得資源與幫助,最後進一步地向弱勢一方傾斜,甚至最終走向犯罪,加重了演算法歧視。

如此看來HAI的很多策略,是非常值得我們仔細思考的。

例如,當我們在關注產業AI的效率問題時,我們是否也應該考慮在效率之外,AI對於產業的更多影響?當AI對於擁有強大IT基礎的零售集團發揮作用,他們更加理解使用者心智時,那些小而美的微型零售店是否在風潮中被遺忘和擠壓,最終退出舞臺?

又比如除了那些研發技術和為技術買單的人之外,我們是否有責任去傾聽更多人的聲音?AI的研發者與技術採買者或許清晰地知道AI是如何推動我們生活運轉的,但那些同樣被卷在齒輪之下的人,是否也有權力瞭解到這些齒輪的運轉規則?

更重要的,我們是否應該盡力去推動AI黑箱的透明化,在發現問題時能夠從內部技術機制上解決?

以往我們總覺得,技術永遠只是研發者和應用之間的故事。如今看來,或許AI已經成為了一個世界命題。

世界命題,就應該廣泛參與。

Top