分類
時評

人工智能如何幫助打擊系統性種族主義


2020 年,底特律警方逮捕了一名黑人男子,他從一家高檔精品店偷竊了價值近 4,000 美元的手錶。他當著家人的面被戴上手銬,被關押了一夜。然而,經過一番詢問,很明顯他們找錯了人。那麼他們為什麼首先逮捕他呢?

原因:面部識別算法將他駕駛執照上的照片與顆粒狀的安全攝像機鏡頭相匹配。

面部識別算法——已經多次被證明對膚色較深的人不太準確——只是種族偏見如何在新興技術中復制和延續的一個例子。

MLK 客座教授 S. Craig Watkins 說:“人工智能被用來做出真正高風險的決定是很緊迫的,他在麻省理工學院期間的學術基地是數據、系統和社會研究所 (IDSS)。 “風險更高,因為新系統可以大規模複製歷史偏差。”

沃特金斯是德克薩斯大學奧斯汀分校的教授,也是媒體創新研究所的創始主任,研究媒體和基於數據的系統對人類行為的影響,特別關注與系統性種族主義相關的問題。 “這項工作的一個基本問題是:我們如何建立更有效地處理系統性不平等的人工智能模型?”

道德人工智能

技術在許多領域以多種方式使不平等現象長期存在。一個廣泛的領域是醫療保健,沃特金斯說,醫療保健質量和獲得醫療保健的機會都表現出不平等。例如,對精神保健的需求遠遠超過了美國的服務能力。大流行加劇了這種需求,有色人種社區更難獲得護理。

對於沃特金斯來說,消除算法中的偏見只是構建更符合道德的人工智能的一個組成部分。他還致力於開發工具和平台,以正面解決技術之外的不平等問題。就心理健康服務而言,這需要開發一種工具來幫助心理健康提供者更有效地提供護理。

“我們正在構建一個實時數據收集平台,該平台著眼於活動和行為,並試圖識別某些心理狀態出現的模式和背景,”沃特金斯說。 “我們的目標是為護理提供者提供基於數據的洞察力,以提供影響更大的服務。”

Watkins 對此類應用程序會引發的隱私問題並不陌生。他採用以用戶為中心的方法進行基於數據倫理的開發。 “數據權利是一個重要組成部分,”他認為。 “你必須讓用戶完全控制他們的數據如何共享和使用,以及護理提供者看到的數據。沒有其他人可以訪問。”

打擊系統性種族主義

在麻省理工學院,沃特金斯加入了新發起的打擊系統性種族主義倡議 (ICSR),這是一項 IDSS 研究合作,匯集了麻省理工學院斯蒂芬·施瓦茨曼計算學院及其他學院的教職員工和研究人員。 ICSR 的目標是開發和利用計算工具,以幫助實現結構和規範變革,以實現種族平等。

ICSR 合作有獨立的項目團隊,研究包括醫療保健在內的不同社會部門的系統性種族主義。這些“垂直領域”中的每一個都解決了從可持續性到就業再到遊戲的不同但相互關聯的問題。沃特金斯是兩個 ICSR 小組(警察和住房)的成員,該小組旨在更好地了解導致這兩個部門的歧視性做法的過程。 “住房歧視大大加劇了美國的種族貧富差距,”沃特金斯說。

警務小組檢查不同人群如何受到監管的模式。沃特金斯說:“顯然,美國的警務和種族有著重要的歷史。” “這是一種理解、識別模式和注意區域差異的嘗試。”

沃特金斯和警察團隊正在使用詳細說明警察干預、反應和種族等變量的數據來構建模型。沃特金斯說,ICSR 非常適合這類研究,他注意到 IDSS 和 SCC 的跨學科重點。

“系統性變革需要協作模式和不同的專業知識,”沃特金斯說。 “我們正試圖最大限度地提高計算方面的影響力和潛力,但僅靠計算是無法實現的。”

改變的機會

模型也可以預測結果,但沃特金斯謹慎地指出,沒有任何算法可以單獨解決種族挑戰。

“在我看來,模型可以為我們人類必須創建的政策和戰略提供信息。計算模型可以提供信息並產生知識,但這並不等同於改變。”要利用知識和洞察力爭取進步,需要額外的工作以及政策和宣傳方面的額外專業知識。

他認為,變革的一個重要槓桿將是通過獲取信息和機會以更動態的方式了解人工智能及其影響,從而建立一個更加了解人工智能的社會。他希望看到更大的數據權利和對社會系統如何影響我們生活的更深入的了解。

“我受到年輕人對喬治·弗洛伊德和布倫娜·泰勒謀殺案的反應的啟發,”他說。 “他們的悲慘死亡為結構性種族主義對現實世界的影響帶來了光明,並迫使更廣泛的社會更加關注這個問題,這為變革創造了更多機會。”

原文出處

發佈留言