幾個常見的定義包括「一視同仁」(Group Unaware)、「人口配額」(Demographic parity)、「機會均等」(Equality of Opportunity)等。
一視同仁顧名思義就是不論你是誰,標準都一樣,例如聯考,此舉看似公平,卻對其中弱勢團體所受的不公待遇視而不見,且有redundant encoding 的問題。
人口配額即依不同群體的人口比例進行分配,簡單說就是配額制,避免 了redundant encoding,但對個人不公平。保障機會均等則是「選人不選黨」,只要是有能力的人,不管隸屬那個團體與否,入選的機率都一樣。這是較接近真正意義上的公平。近來,「反事實公平」(Counterfactual Fairness)也頗受矚目,其作法是追求改變敏感變項後(反事實),決策不變。
保障機會均等、追求反事實公平皆有助於改善AI的公平性,但具體細節有賴多學科的整合。Google建議將社會科學家、人文學者等專家拉入討論,以獲得多元觀點。此外,評估產品的潛在影響時,你該問這些問題:它代表了誰的觀點?代表什麼類型的數據?什麼被遺漏了?這項技術可能產生什麼結果?結果是否會因使用者或社群的差異而不同?可能會出現什麼偏見,負面經驗或歧視性結果?
(延伸閱讀:Alan Turing Institute 所認知的反事實公平 ( Counterfactual Fairness ))