論文の概要: Auditing for Spatial Fairness
- arxiv url: http://arxiv.org/abs/2302.12333v1
- Date: Thu, 23 Feb 2023 20:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 15:18:36.287540
- Title: Auditing for Spatial Fairness
- Title(参考訳): 空間フェアネスの監査
- Authors: Dimitris Sacharidis, Giorgos Giannopoulos, George Papastefanatos,
Kostas Stefanidis
- Abstract要約: 保護属性が位置にあるときのアルゴリズム的公正性について検討する。
アルゴリズムフェアネスの確立された概念と同様に、空間フェアネスは位置から結果が統計的に独立していると定義する。
- 参考スコア(独自算出の注目度): 5.048742886625779
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper studies algorithmic fairness when the protected attribute is
location. To handle protected attributes that are continuous, such as age or
income, the standard approach is to discretize the domain into predefined
groups, and compare algorithmic outcomes across groups. However, applying this
idea to location raises concerns of gerrymandering and may introduce
statistical bias. Prior work addresses these concerns but only for regularly
spaced locations, while raising other issues, most notably its inability to
discern regions that are likely to exhibit spatial unfairness. Similar to
established notions of algorithmic fairness, we define spatial fairness as the
statistical independence of outcomes from location. This translates into
requiring that for each region of space, the distribution of outcomes is
identical inside and outside the region. To allow for localized discrepancies
in the distribution of outcomes, we compare how well two competing hypotheses
explain the observed outcomes. The null hypothesis assumes spatial fairness,
while the alternate allows different distributions inside and outside regions.
Their goodness of fit is then assessed by a likelihood ratio test. If there is
no significant difference in how well the two hypotheses explain the observed
outcomes, we conclude that the algorithm is spatially fair.
- Abstract(参考訳): 本稿では,保護属性が位置にある場合のアルゴリズム的公正性について検討する。
年齢や収入などの保護された属性を扱うため、標準的なアプローチは、ドメインを事前に定義されたグループに識別し、グループ間でアルゴリズム的な結果を比較することである。
しかし、このアイデアをロケーションに適用すると、gerrymanderingの懸念が高まり、統計的バイアスが生じる可能性がある。
以前の研究はこれらの懸念に対処するが、他の問題を提起する一方で、空間的不公平を示す可能性のある地域を特定することができない。
アルゴリズム的公平性の確立した概念と同様に、空間的公平性は位置からの結果の統計的独立性として定義する。
これは空間の各領域に対して、結果の分布が領域内外と同一であることが要求されることを意味する。
結果分布の局所的不一致を許容するために、2つの競合する仮説が観測された結果についてどの程度うまく説明できるかを比較する。
ヌル仮説は空間的公平性を仮定し、後者は領域内外の異なる分布を許容する。
適合性の良さは度合試験によって評価される。
2つの仮説が観測結果をどのようにうまく説明するかに有意な差がなければ、このアルゴリズムは空間的に公平である。
関連論文リスト
- Implementing Fairness: the view from a FairDream [0.0]
私たちはAIモデルをトレーニングし、不平等を検出して修正するために、独自の公正パッケージFairDreamを開発します。
本実験は,FairDreamの特性として,真理を条件としたフェアネスの目標を達成できることを実証した。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - Guarantee Regions for Local Explanations [29.429229877959663]
局所的な説明が正しいと保証される領域を同定するアンカーベースアルゴリズムを提案する。
提案手法は,局所代理モデルの予測が予測モデルと一致するように保証される,解釈可能な特徴整合ボックスを生成する。
論文 参考訳(メタデータ) (2024-02-20T06:04:44Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Proportional Fairness in Obnoxious Facility Location [70.64736616610202]
この問題に対して,距離に基づく比例フェアネスの概念の階層構造を提案する。
決定論的かつランダムなメカニズムを考察し、比例フェアネスの価格に関する厳密な境界を計算する。
モデルの拡張が2つあることを示す。
論文 参考訳(メタデータ) (2023-01-11T07:30:35Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - On Localized Discrepancy for Domain Adaptation [146.4580736832752]
本稿では,局所化後の仮説空間上で定義される局所的不一致について検討する。
2つの領域を交換すると、それらの値が異なるため、非対称な移動困難が明らかになる。
論文 参考訳(メタデータ) (2020-08-14T08:30:02Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。