論文の概要: Rethinking Algorithmic Fairness for Human-AI Collaboration
- arxiv url: http://arxiv.org/abs/2310.03647v2
- Date: Wed, 12 Feb 2025 01:59:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:46:59.385937
- Title: Rethinking Algorithmic Fairness for Human-AI Collaboration
- Title(参考訳): 人間-AI協調のためのアルゴリズムフェアネスの再考
- Authors: Haosen Ge, Hamsa Bastani, Osbert Bastani,
- Abstract要約: アルゴリズムフェアネスに対する既存のアプローチは、人間の意思決定者がアルゴリズムに完全に従えば、公平な結果を確保することを目的としている。
我々は、独立して公平で、コンプライアンスが不当に公正で、人間のポリシーよりも正確であるアルゴリズムレコメンデーションを設計することは不可能であることを示した。
- 参考スコア(独自算出の注目度): 29.334511328067777
- License:
- Abstract: Existing approaches to algorithmic fairness aim to ensure equitable outcomes if human decision-makers comply perfectly with algorithmic decisions. However, perfect compliance with the algorithm is rarely a reality or even a desirable outcome in human-AI collaboration. Yet, recent studies have shown that selective compliance with fair algorithms can amplify discrimination relative to the prior human policy. As a consequence, ensuring equitable outcomes requires fundamentally different algorithmic design principles that ensure robustness to the decision-maker's (a priori unknown) compliance pattern. We define the notion of compliance-robustly fair algorithmic recommendations that are guaranteed to (weakly) improve fairness in decisions, regardless of the human's compliance pattern. We propose a simple optimization strategy to identify the best performance-improving compliance-robustly fair policy. However, we show that it may be infeasible to design algorithmic recommendations that are simultaneously fair in isolation, compliance-robustly fair, and more accurate than the human policy; thus, if our goal is to improve the equity and accuracy of human-AI collaboration, it may not be desirable to enforce traditional algorithmic fairness constraints. We illustrate the value of our approach on criminal sentencing data before and after the introduction of an algorithmic risk assessment tool in Virginia.
- Abstract(参考訳): アルゴリズムの公正性に対する既存のアプローチは、人間の意思決定者がアルゴリズムの判断に完全に従えば、公平な結果を確保することを目的としている。
しかし、アルゴリズムへの完全準拠は、人間とAIのコラボレーションにおいて現実的あるいは望ましい結果になることはめったにない。
しかし、最近の研究では、公正なアルゴリズムに対する選択的コンプライアンスは、以前の人間の政策に対する差別を増幅することができることが示されている。
結果として、公平な結果を保証するためには、決定者の(未知の)コンプライアンスパターンに対する堅牢性を保証するアルゴリズム設計の原則を根本的に異なるものにする必要がある。
我々は、人間のコンプライアンス・パターンに関係なく、決定における公正性を改善することが保証されるコンプライアンス・ロバストに公正なアルゴリズムレコメンデーションの概念を定義する。
そこで本研究では, 性能改善型コンプライアンス・ロバストな公正なポリシーを特定するための, 簡易な最適化手法を提案する。
しかし,人間とAIの協力関係の公平性と正確性を改善することが目的であるならば,従来のアルゴリズムの公正性制約を強制することが望ましいとは考えられない。
バージニア州にアルゴリズムによるリスクアセスメントツールを導入する前後の刑罰データに対する我々のアプローチの価値について説明する。
関連論文リスト
- Integrating Expert Judgment and Algorithmic Decision Making: An Indistinguishability Framework [12.967730957018688]
予測と意思決定タスクにおける人間とAIの協調のための新しい枠組みを導入する。
我々の手法は人間の判断を利用して、アルゴリズム的に区別できない入力を区別する。
論文 参考訳(メタデータ) (2024-10-11T13:03:53Z) - Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - Learning Reward and Policy Jointly from Demonstration and Preference Improves Alignment [58.049113055986375]
我々は、報酬モデルとポリシーをトレーニングするために、AIHF(Alignment with Integrated Human Feedback)と呼ばれる単一ステージアプローチを開発する。
提案した手法は、一般的なアライメントアルゴリズムに容易に還元し、活用できる、効率的なアルゴリズムの集合を認めている。
本研究では,LLMにおけるアライメント問題と,MuJoCoにおけるロボット制御問題を含む広範な実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-06-11T01:20:53Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Designing Algorithmic Recommendations to Achieve Human-AI Complementarity [2.4247752614854203]
人間の意思決定を支援するレコメンデーションアルゴリズムの設計を形式化する。
我々は、潜在的なアウトカムフレームワークを使用して、ヒトの意思決定者による二元的治療選択に対するレコメンデーションの効果をモデル化する。
機械学習で実装可能な最小限の推奨アルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-05-02T17:15:30Z) - Bayesian Safe Policy Learning with Chance Constrained Optimization: Application to Military Security Assessment during the Vietnam War [0.0]
ベトナム戦争で採用されたセキュリティアセスメントアルゴリズムを改善できるかどうかを検討する。
この経験的応用は、アルゴリズムによる意思決定においてしばしば発生するいくつかの方法論的課題を提起する。
論文 参考訳(メタデータ) (2023-07-17T20:59:50Z) - Provably Efficient Iterated CVaR Reinforcement Learning with Function
Approximation and Human Feedback [57.6775169085215]
リスクに敏感な強化学習は、期待される報酬とリスクのバランスをとるポリシーを最適化することを目的としている。
本稿では,線形および一般関数近似の下で,CVaR(Iterated Conditional Value-at-Risk)を目標とする新しいフレームワークを提案する。
本稿では,この反復CVaR RLに対するサンプル効率の高いアルゴリズムを提案し,厳密な理論的解析を行う。
論文 参考訳(メタデータ) (2023-07-06T08:14:54Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness Criteria in Machine Learning and Law [2.959308758321417]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - On the Optimality of Batch Policy Optimization Algorithms [106.89498352537682]
バッチポリシー最適化は、環境と対話する前に既存のデータをポリシー構築に活用することを検討する。
信頼調整インデックスアルゴリズムは楽観的,悲観的,中立的いずれであってもミニマックス最適であることを示す。
最適値予測の本来の難易度を考慮した新しい重み付き最小値基準を提案する。
論文 参考訳(メタデータ) (2021-04-06T05:23:20Z) - Average-Reward Off-Policy Policy Evaluation with Function Approximation [66.67075551933438]
平均報酬MDPの関数近似によるオフポリシ政策評価を検討する。
ブートストラップは必要であり、オフポリシ学習とFAと一緒に、致命的なトライアドをもたらす。
そこで本研究では,勾配型tdアルゴリズムの成功を再現する2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-08T00:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。