論文の概要: Fair Prediction with Endogenous Behavior
- arxiv url: http://arxiv.org/abs/2002.07147v1
- Date: Tue, 18 Feb 2020 16:07:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 20:00:01.499547
- Title: Fair Prediction with Endogenous Behavior
- Title(参考訳): 内因性行動を伴う公正な予測
- Authors: Christopher Jung and Sampath Kannan and Changhwa Lee and Mallesh M.
Pai and Aaron Roth and Rakesh Vohra
- Abstract要約: 刑事司法を例として,社会が投獄規則を選択するモデルについて検討する。
その結果,グループ間でのI型とII型エラーの等化は,犯罪率の最小化という目標と一致していることがわかった。
- 参考スコア(独自算出の注目度): 14.004287903552534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is increasing regulatory interest in whether machine learning
algorithms deployed in consequential domains (e.g. in criminal justice) treat
different demographic groups "fairly." However, there are several proposed
notions of fairness, typically mutually incompatible. Using criminal justice as
an example, we study a model in which society chooses an incarceration rule.
Agents of different demographic groups differ in their outside options (e.g.
opportunity for legal employment) and decide whether to commit crimes. We show
that equalizing type I and type II errors across groups is consistent with the
goal of minimizing the overall crime rate; other popular notions of fairness
are not.
- Abstract(参考訳): 連続した領域(例えば刑事裁判)に展開される機械学習アルゴリズムが、異なる人口集団を「公平に」扱うかどうかに対する規制上の関心が高まっている。
しかしながら、フェアネスの概念はいくつか提案されているが、通常は互いに相容れない。
刑事司法を例として,社会が投獄規則を選択するモデルについて検討する。
異なる集団のエージェントは、外部の選択肢(例えば、法的雇用の機会)や犯罪を犯すかどうかを決定する。
グループ間でのタイプiとタイプiiのエラーの平等化は、犯罪率の最小化という目標と一致している。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Group Fairness Is Not Derivable From Justice: a Mathematical Proof [0.0]
「集団公正」とは、道徳的に任意の特徴から無罪の被告人全員に無罪または有罪判決の機会を確保することである。
数学的には、完全な手続き(誤りを伴わない)、非決定論的手続き、または退化処理のみが群公正性を保証することを示す。
論文 参考訳(メタデータ) (2022-02-08T14:10:47Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Identifying biases in legal data: An algorithmic fairness perspective [3.8073142980733]
本稿では,アルゴリズムの公正性の観点から,大規模訴訟データにおけるバイアスの同定と測定の問題について検討する。
我々の手法は2つの回帰モデルを用いており、データによって与えられる「典型的」裁判官の決定を表すベースラインと、3つの公正の概念のうちの1つを適用する「公正」裁判官である。
論文 参考訳(メタデータ) (2021-09-21T04:05:12Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。