紙箱外包裝設計圖片的設計目的在于代表企業或品牌的形象,良好的紙箱外包裝設計圖片建立起品牌和客戶之間的聯系:
我們現在正面臨著挑戰和機遇的重要交匯。在過去的幾個月里,人們的行為和需求發生了根本性的變化,一些人工智能(大赦國際)系統正在努力適應。黑人的命也是命運動提高了公眾對人工智能預測警務和面部識別技術的歷史和固有偏見的認識。雖然這種理解對研究和倫理界來說并不新鮮,但大眾媒體上的新聞報道數量已經飆升,引起了對這一對話的更廣泛關注。
讓人工智能變得正確更加困難,但比以往任何時候都更加重要。除非公司承諾負責任地、合乎道德地創造和實施人工智能,否則情況不會有什么改變。
偏見就是錯誤
為了企業的成功和社會的福祉,我們需要人工智能做到準確,這意味著盡可能消除偏見。
讓我們以一家金融機構為例,該機構試圖在批準貸款之前衡量客戶的"還款能力"。假設這家機構的人工智能系統根據敏感或受保護的變量,如種族或性別(順便說一下,這是非法的)或代理變量(如郵政編碼,可能與種族相關),預測某人的還款能力。在這種情況下,他們可能會批準一些無力償還貸款的人的貸款,而拒絕那些能夠償還的人的貸款。如果一個系統將種族看得比收入更重,它可能會拒絕高收入黑人家庭獲得貸款,而向低收入白人家庭提供貸款。由于人工智能基于錯誤的因素做出決策,它使模型中的偏見永久化,使金融機構面臨失去資金和客戶的風險,并可能迫使客戶群依賴于掠奪性的貸款機構。
包括種族、性別和代理變量,但選擇不基于這些變量做出決策將極大地提高準確性并擴大客戶群。例如,如果他們看到一些社區被拒絕貸款,他們可能會考慮提供替代產品,如小額貸款,以更好地滿足他們的需求。這種方法創造了一個良性循環,幫助客戶改善財務狀況,并最終有資格獲得銀行的傳統貸款產品。
組織有責任確保公平和準確的人工智能解決方案——這是一項持續的努力,需要意識和承諾。雖然沒有"放之四海而皆準"的解決辦法,但這里有四個策略可以幫助你開始:
1.找出你的系統和流程中潛在的偏見
最近圍繞人工智能和偏見的對話正在挑戰"無偏數據"的概念。由于所有的數據都帶有偏見,你需要后退一步,評估一下歷史上使偏見永久化的系統和過程。
檢查您的系統基于敏感變量做出的決策:
某些因素,如種族或性別,是否受到過度的影響?不同地區甚至不同決策者之間是否存在差異?這些差異是否代表了這些地區更廣泛的人口,或者看起來一些群體受到了不成比例的影響?
一旦你發現偏差,你需要在使用這些數據訓練人工智能系統之前,從過程中消除它。怎么會?關注三個核心領域:員工教育、產品開發和客戶授權。
在銷售力量,我們在新員工訓練營向所有員工介紹我們的道德和人性化使用原則。從第一天起,新員工就知道他們對道德決策和良好的安全實踐負有同樣的責任。我們直接與產品團隊合作,開發道德功能,使我們的客戶能夠負責任地使用人工智能,并審查道德風險的新功能。
2.質疑你對數據的假設
為了發現和糾正偏差并獲得高質量的代表性數據,您需要深入了解將受到技術影響的每個人——不僅僅是買家可能需要的功能,還有下游影響。
對您的數據感到好奇,并提出以下問題:
我們對受影響的人和他們的價值觀有什么假設?我們從誰那里收集數據?誰沒有被代表,為什么?誰受到傷害的風險最大?這種傷害的影響是什么,我們如何減輕它?我們是否收集了足夠的數據來對受人工智能影響的每個人做出準確的決定?
要確定你是否基于種族、性別、地理或收入等不公平的標準做出決定,你需要通過意識來實現公平。這意味著收集敏感變量以查看數據中的相關性,但不基于這些敏感變量或其代理做出決策。
正如我們在貸款例子中討論的,代理變量會影響你的模型,所以我們也必須解決這些問題。例如,在銷售力量,我們很早就了解到在銷售線索評分方面,“約翰”是一個好線索的頭號預測者。"名字"代表性別,也可以代表種族和原籍國。因此,該團隊將"姓名"作為模型中的變量之一刪除。
3.與可能受技術影響的人接觸
因為我們沒有人能夠完全了解彼此的現實,所以人工智能創造者需要從他們的客戶那里征求直