首頁 > 延邊科協(xié) > 科普宣傳 > 人類更用心,AI不“偏心”

手機版百姓熱線
空白

人類更用心,AI不“偏心”

2021年06月28日 09:33

“人工智能很單純,復雜的是人”——在探討人工智能(AI)的公平性時,香港科技大學講席教授、微眾銀行首席AI官楊強巧妙地化用了一句流行歌詞。他認為,AI技術發(fā)展中出現(xiàn)的諸多公平性問題,其實是映射了人類社會中本已存在的歧視和偏見。

在未來論壇近日發(fā)起的“AI 向善的理論與實踐”論壇上,多位業(yè)內(nèi)專家圍繞“AI公平”這個話題開展了深入討論。

AI跟誰學到了“偏心”? 

與人類社會相似,在AI的世界里,偏見與不公隨處可見。

2014年,亞馬遜公司啟動了一個通過AI技術開展自動化招聘的項目。這個項目完全基于求職者簡歷提供的信息,通過AI算法進行評級。然而,第二年亞馬遜便意識到這個機器腦瓜并不像想象中那樣公平公正——它似乎在歧視女性!當一份簡歷中出現(xiàn)“women”等字眼時,在打分上就會吃虧。

亞馬遜分析,這是因為他們使用了過去10年的歷史數(shù)據(jù)來訓練這個AI模型,而歷史數(shù)據(jù)中包含對女性的偏見。之后,亞馬遜便不再用這個算法來進行招聘。

“AI的公平性問題,本質(zhì)上并非來源于技術本身,而是來自人心,也就是說,其本源是社會的公平性?!敝锌圃河嬎闼芯繂T,中科視拓(北京)聯(lián)合創(chuàng)始人山世光說。

他解釋道,AI技術從算法和系統(tǒng)的設計,走向社會的應用實踐,這個過程涉及方方面面的人,在很多環(huán)節(jié),都有可能有意或無意地引入歧視和偏見?!耙源蠹易钍煜さ慕】荡a為例,這個產(chǎn)品在為防疫做出重大貢獻的同時,也因為給老年出行帶來困難等現(xiàn)象,引起了很多爭議。這就是目標人群設定不夠周全,而引入了潛在的歧視風險。”他說。

除了不同人群間的公平問題,AI公平還涉及到開發(fā)者和使用者(通常是企業(yè)和用戶)之間的不平等問題。

清華大學法學院院長申衛(wèi)星補充了一個生活中非常常見的案例。大量APP在使用時會出現(xiàn)一個“知情同意”的選項,這個知情同意書往往少則上千字,多則上萬字,大量的信息讓消費者無力長時間閱讀,只好選擇同意,否則只能退出。

“過去我們對知情同意格式條款的主要要求是‘告知要充分’。但現(xiàn)在更常見的問題反而是‘告知過量’,或者叫信息超載?!鄙晷l(wèi)星說,“過度冗余的格式條款,其實恰恰剝奪了消費者的自我決定權。這是一種非常隱蔽的不公平”

雙刃劍的正確打開方式? 

AI技術與社會公平的關系,比想象中更為復雜。

搜狗公司CEO王小川指出:“總體來講,AI技術的高度發(fā)展對公平性的提升是有利的。首先在技術的加持下,教育、醫(yī)療等重大領域在資源供給的數(shù)量和質(zhì)量上都會有極大提升,供給側的繁榮有助于緩解社會資源分配不均;其次,隨著大數(shù)據(jù)的連接,人們有機會在全局層面上提煉主要矛盾,探討公平問題,進而達成社會共識?!?/p>

但這也是一柄雙刃劍?!盎ヂ?lián)網(wǎng)發(fā)展、信息發(fā)展和AI發(fā)展對于公平性提供了更好的抓手,但也會帶來更多新的挑戰(zhàn)?!蓖跣〈ㄕf,“其中一個比較敏感的問題是,在機器判斷越來越準確之后,公平定義的矛盾將更加突出。比如在金融貸款、商業(yè)保險等領域,如果對用戶進行個人畫像并作出判斷后,拒絕向該用戶提供服務,如此是否公平?此外,隨著AI技術進步帶來的資源極大繁榮,很容易產(chǎn)生‘馬太效應’,導致資源集中在金字塔尖上,拉大社會差距。這是人類歷史上不斷出現(xiàn)的問題,值得警惕。”

對此,山世光則強調(diào):“作為AI從業(yè)者、開發(fā)者、運營者的我們,一定要意識到:我們所開發(fā)的AI既可能被用來促進社會公平和消除歧視,也有可能被濫用,甚至助紂為虐?!?/p>

那么,人類應該如何揮舞這柄雙刃劍,讓它向善而不作惡呢?山世光說:“問題的最終解決不僅僅依賴技術的進步,更依賴于技術專家和社會學家兩個群體的順暢溝通,深度對話?!?/p>

為了更公平的AI而奮斗 

論壇上,專家們介紹了產(chǎn)業(yè)界、學術界、法律界等在AI公平性上做出的種種努力。

“人們開發(fā)了很多工具,包括分析數(shù)據(jù)集形態(tài)和質(zhì)量的工具,能讓開發(fā)者、工程師清楚地看到他們用于訓練的數(shù)據(jù)特征的分布,比如性別、年齡等等,至少要滿足統(tǒng)計學意義上的合理分布,從而減少潛在的偏見;還有分析算法模型的工具,可以對模型的公平性進行評估,并做出相應糾偏和優(yōu)化;此外還有幫助開發(fā)者對決定模型輸出的關鍵數(shù)據(jù)特征進行探索的工具;以及公平性約束條件下的算法訓練工具等。”華為公司AI治理首席專家段小琴說。

“AI公平性的一個重要方向是數(shù)據(jù)的可獲得性和可使用性?!睏顝娬f,他在論壇講座中強調(diào)了“聯(lián)邦學習”在抵抗數(shù)據(jù)“馬太效應”、促進AI公平性方面的作用,“我們研究聯(lián)邦學習,一個更大的目標是實現(xiàn)‘數(shù)據(jù)可用不可見’,其特征是:隱私保護、權益保障、缺陷保障以及確權,而確權和權益保證需要通過經(jīng)濟學來完成。”

申衛(wèi)星則指出:“在這個問題上,企業(yè)和技術的自律,要與以法律為代表的‘他律’相結合,未來相關領域的立法應該是三駕馬車——技術、法律和倫理——并駕齊驅(qū),技術是根本、法律是保障、倫理是社會基礎?!?/p>

他進一步補充道:“就AI技術立法問題而言,法律既要解決形式上的公平、機會上的公平和程序上的公平,還要實現(xiàn)形式公平和實質(zhì)公平的統(tǒng)一。個人建議,應在時機成熟的時候推出綜合立法。在這個過程中,既要考慮對個人數(shù)據(jù)的保護,也要考慮保護和創(chuàng)新之間如何形成平衡?!?/p>

[ 本作品中使用的圖片等內(nèi)容,如涉及版權,請致電。確認后將第一時間刪除。聯(lián)系電話:0433—8157607。]

延邊信息港 / 延邊廣電客戶端
標簽: AI  公平性  公平  技術  社會 

信息廣場

登錄天池云賬號