卡內基梅隆大學(Carnegie Mellon University)的研究人員正在應對機器學習研究中的一個挑戰,即在使用機器學習做出公共政策決策時,需要在準確性和公平性之間做出權衡。
隨著機器學習在刑事司法、招聘、醫療服務和社會服務等領域的使用增加,人們越來越關注,這種應用是否會引入新的或放大現有的不公平現象,特別是在少數種族和經濟弱勢的人中。為了防止這種偏見,對數據、標簽、模型訓練、評分系統和機器學習系統的其他方面都需要進行調整。但是有一個基本的理論假設是,這些調整使系統的準確性降低。
研究團隊在研究中測試了這個假設,發現在一系列政策領域的實踐中,這種權衡是可以忽略不計的。
研究人員表示,實際上可以得到兩者。不必犧牲準確性來建立公平和公正的系統。但它確實需要定制設計系統,使其公平公正。
研究人員考察了四個領域的系統:根據一個人重返監獄的風險,優先考慮有限的心理健康護理外展,以減少重新監禁;預測嚴重的安全違規行為,以更好地部署城市有限的住房檢查員;模擬學生不能及時從高中畢業的風險,以確定那些最需要額外支持的學生;幫助教師實現教室需求的眾籌目標。
在每一種情況下,研究人員發現,為準確性而優化的模型(機器學習的標準做法)可以有效地預測感興趣的結果,但在干預措施的建議方面表現出相當大的差異。然而,當研究人員對模型的輸出進行調整,以提高其公平性時,發現基于種族、年齡或收入的差異(視情況而定)可以在不損失準確性的情況下被消除。
研究者希望這項研究可以開始改變政策制定者的想法。希望人工智能、計算機科學和機器學習界,摒棄這種在準確性和公平性之間進行權衡的觀念,并開始設計能將兩者都最大化的系統。同時,希望政策制定者接受機器學習作為他們決策的工具,以幫助他們實現公平的結果。
題為Empirical observation of negligible fairness–accuracy trade-offs in machine learning for public policy的相關研究論文發表在《自然-機器智能》(Nature Machine Intelligence)上。
前瞻經濟學人APP資訊組
論文原文:
https://www.nature.com/articles/s42256-021-00396-x