關注 >   >  正文

決策的好幫手!機器學習可以同時具有準確性和公平性

評論

卡內基梅隆大學(Carnegie Mellon University)的研究人員正在應對機器學習研究中的一個挑戰,即在使用機器學習做出公共政策決策時,需要在準確性和公平性之間做出權衡。

隨著機器學習在刑事司法、招聘、醫療服務和社會服務等領域的使用增加,人們越來越關注,這種應用是否會引入新的或放大現有的不公平現象,特別是在少數種族和經濟弱勢的人中。為了防止這種偏見,對數據、標簽、模型訓練、評分系統和機器學習系統的其他方面都需要進行調整。但是有一個基本的理論假設是,這些調整使系統的準確性降低。

研究團隊在研究中測試了這個假設,發現在一系列政策領域的實踐中,這種權衡是可以忽略不計的。

研究人員表示,實際上可以得到兩者。不必犧牲準確性來建立公平和公正的系統。但它確實需要定制設計系統,使其公平公正。

研究人員考察了四個領域的系統:根據一個人重返監獄的風險,優先考慮有限的心理健康護理外展,以減少重新監禁;預測嚴重的安全違規行為,以更好地部署城市有限的住房檢查員;模擬學生不能及時從高中畢業的風險,以確定那些最需要額外支持的學生;幫助教師實現教室需求的眾籌目標。

在每一種情況下,研究人員發現,為準確性而優化的模型(機器學習的標準做法)可以有效地預測感興趣的結果,但在干預措施的建議方面表現出相當大的差異。然而,當研究人員對模型的輸出進行調整,以提高其公平性時,發現基于種族、年齡或收入的差異(視情況而定)可以在不損失準確性的情況下被消除。

研究者希望這項研究可以開始改變政策制定者的想法。希望人工智能、計算機科學和機器學習界,摒棄這種在準確性和公平性之間進行權衡的觀念,并開始設計能將兩者都最大化的系統。同時,希望政策制定者接受機器學習作為他們決策的工具,以幫助他們實現公平的結果。

題為Empirical observation of negligible fairness–accuracy trade-offs in machine learning for public policy的相關研究論文發表在《自然-機器智能》(Nature Machine Intelligence)上。

前瞻經濟學人APP資訊組

論文原文:

https://www.nature.com/articles/s42256-021-00396-x

標簽: 決策 好幫手 機器 學習

今日熱點

熱點排行

最近更新

所刊載信息部分轉載自互聯網,并不代表本網贊同其觀點和對其真實性負責。郵箱:5855973@qq.com

聯系我們| 中國品牌網 | 滬ICP備2022005074號-18 營業執照  Copyright © 2018@. All Rights Reserved.