論文の概要: Rethinking Fairness for Human-AI Collaboration
- arxiv url: http://arxiv.org/abs/2310.03647v1
- Date: Thu, 5 Oct 2023 16:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 15:32:51.251617
- Title: Rethinking Fairness for Human-AI Collaboration
- Title(参考訳): ヒューマン・aiコラボレーションのための公平性再考
- Authors: Haosen Ge, Hamsa Bastani, Osbert Bastani
- Abstract要約: そこで本研究では, 性能改善型コンプライアンス・ロバストな公正なポリシーを特定するための, 簡易な最適化手法を提案する。
独立して公平であり、コンプライアンスが不公平で、人間のポリシーよりも正確であるアルゴリズムレコメンデーションを設計することは不可能かもしれない。
- 参考スコア(独自算出の注目度): 32.969050978497066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing approaches to algorithmic fairness aim to ensure equitable outcomes
if human decision-makers comply perfectly with algorithmic decisions. However,
perfect compliance with the algorithm is rarely a reality or even a desirable
outcome in human-AI collaboration. Yet, recent studies have shown that
selective compliance with fair algorithms can amplify discrimination relative
to the prior human policy. As a consequence, ensuring equitable outcomes
requires fundamentally different algorithmic design principles that ensure
robustness to the decision-maker's (a priori unknown) compliance pattern. We
define the notion of compliance-robustly fair algorithmic recommendations that
are guaranteed to (weakly) improve fairness in decisions, regardless of the
human's compliance pattern. We propose a simple optimization strategy to
identify the best performance-improving compliance-robustly fair policy.
However, we show that it may be infeasible to design algorithmic
recommendations that are simultaneously fair in isolation, compliance-robustly
fair, and more accurate than the human policy; thus, if our goal is to improve
the equity and accuracy of human-AI collaboration, it may not be desirable to
enforce traditional fairness constraints.
- Abstract(参考訳): 既存のアルゴリズムフェアネスへのアプローチは、人間の意思決定者がアルゴリズム決定に完全に従えば、公平な結果を確保することを目的としている。
しかし、アルゴリズムへの完全準拠は、人間とAIのコラボレーションにおいて現実的あるいは望ましい結果になることはめったにない。
しかし、近年の研究では、公正なアルゴリズムによる選択的コンプライアンスは、以前の人間の方針に対する差別を増幅することができることが示されている。
結果として、公平な結果を保証するためには、決定者の(未知の)コンプライアンスパターンに対する堅牢性を保証するアルゴリズム設計原則を根本的に異なるものにする必要がある。
我々は,人間のコンプライアンスパターンによらず,意思決定の公平性を改善することが保証されるコンプライアンス・ロバスト的公正なアルゴリズム的推奨の概念を定義する。
本稿では,最善のパフォーマンス改善型コンプライアンス・ロバスト・フェア・ポリシーを特定するための簡単な最適化戦略を提案する。
しかし,人間とAIの協力関係の公平性と正確性を改善することが目的であるならば,従来の公正性制約を強制することが望ましいとは考えられない。
関連論文リスト
- Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - Joint Demonstration and Preference Learning Improves Policy Alignment with Human Feedback [58.049113055986375]
我々は、報酬モデルとポリシーをトレーニングするために、AIHF(Alignment with Integrated Human Feedback)と呼ばれる単一ステージアプローチを開発する。
提案した手法は、一般的なアライメントアルゴリズムに容易に還元し、活用できる、効率的なアルゴリズムの集合を認めている。
本研究では,LLMにおけるアライメント問題と,MuJoCoにおけるロボット制御問題を含む広範な実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-06-11T01:20:53Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Provably Efficient Iterated CVaR Reinforcement Learning with Function
Approximation and Human Feedback [57.6775169085215]
リスクに敏感な強化学習は、期待される報酬とリスクのバランスをとるポリシーを最適化することを目的としている。
本稿では,線形および一般関数近似の下で,CVaR(Iterated Conditional Value-at-Risk)を目標とする新しいフレームワークを提案する。
本稿では,この反復CVaR RLに対するサンプル効率の高いアルゴリズムを提案し,厳密な理論的解析を行う。
論文 参考訳(メタデータ) (2023-07-06T08:14:54Z) - Robustness Implies Fairness in Casual Algorithmic Recourse [13.86376549140248]
アルゴリズムリコースは、決定が重大な結果をもたらす状況において、ブラックボックス決定プロセスの内部動作を明らかにすることを目的としている。
効果的な治療を確実にするためには、提案された介入は低コストであるだけでなく、堅牢で公平でなければならない。
本研究では,因果的アルゴリズムによる会話における個人的公正性と敵対的ロバスト性の概念について検討する。
論文 参考訳(メタデータ) (2023-02-07T13:40:56Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness Criteria in Machine Learning and Law [2.959308758321417]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - Active Fairness Auditing [22.301071549943064]
本研究では,問合せに基づく監査アルゴリズムについて検討し,問合せ効率のよいMLモデルの妥当性を推定する。
本稿では,最適決定性アルゴリズムと,同等の保証を持つ実用的なランダム化・オラクル効率アルゴリズムを提案する。
アクティブフェアネス推定の最初の調査は、AIガバナンスをより堅固な理論基盤に置くことを目的としています。
論文 参考訳(メタデータ) (2022-06-16T21:12:00Z) - Understanding Relations Between Perception of Fairness and Trust in
Algorithmic Decision Making [8.795591344648294]
本研究の目的は,人間における帰納的アルゴリズムの公平さと知覚の関係を理解することである。
また,アルゴリズムの公平性が,アルゴリズム決定におけるユーザの信頼にどのように影響するかについても検討する。
論文 参考訳(メタデータ) (2021-09-29T11:00:39Z) - On the Optimality of Batch Policy Optimization Algorithms [106.89498352537682]
バッチポリシー最適化は、環境と対話する前に既存のデータをポリシー構築に活用することを検討する。
信頼調整インデックスアルゴリズムは楽観的,悲観的,中立的いずれであってもミニマックス最適であることを示す。
最適値予測の本来の難易度を考慮した新しい重み付き最小値基準を提案する。
論文 参考訳(メタデータ) (2021-04-06T05:23:20Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。