中新經緯3月24日電 (王玉玲)近日,由中國人民大學高瓴人工智能學院、智能社會治理跨學科交叉平臺和基於大數據文科綜合訓練國傢級虛擬仿真實驗教學中心聯合主辦的算法公平性與內容生態建設研討會在線上舉行。北京郵電大學計算機學院助理教授白婷表示,以往不管是工業界還是學界,都更側重於個性化推薦算法的精度,但是,這幾年大傢慢慢開始關註社會倫理、價值觀的需求,兼顧公平性。
白婷表示,公平性很難界定,“雖然我們並不知道什麼樣的東西是公平的,但是我們能夠很明確感覺到什麼東西是不公平的,比如說大數據殺熟,或者是性別歧視等,我們對於公平性的思考是源於對不公平性現象的體會。”白婷說道。
由此,白婷認為,或許可以換個角度,不去界定公平性,而是去量化不公平性的後果,來界定可接受公平性的閾值,其中包括:第一,量化不公平性的後果。我們可以明確不公平會導致哪些後果,這些後果是否是可接受的,用一個量化標準去評價,如果發生不公平現象的話,它會有什麼樣的後果。第二,明確評價不公平的指標。比如說不公平體現在哪些方面,制定一些明確的指標去衡量它的不公平性。第三,考慮模型層面的通用性。我們需要對推薦系統的推薦結果進行分析,在模型層面上,我們現階段可以用白盒去模擬,但很多平臺是用黑盒的方式,如果我們不能接觸到該平臺的推薦算法,就需要有一個通用的模型。第四,針對推薦算法公平性的預警。當發生過度不公平推薦結果的時候,我們會采取算法評估層面的警示以及幹預措施,從而出臺相應的監管機制,達成對算法的監管。(中新經緯APP)
中新經緯版權所有,未經書面授權,任何單位及個人不得轉載、摘編或以其它方式使用。