論文の概要: A Human-in-the-Loop Fairness-Aware Model Selection Framework for Complex Fairness Objective Landscapes
- arxiv url: http://arxiv.org/abs/2410.13286v2
- Date: Mon, 21 Oct 2024 08:00:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:17:47.014997
- Title: A Human-in-the-Loop Fairness-Aware Model Selection Framework for Complex Fairness Objective Landscapes
- Title(参考訳): 複合フェアネスオブジェクトランドスケープのためのヒューマン・イン・ザ・ループフェアネス・アウェアモデル選択フレームワーク
- Authors: Jake Robertson, Thorsten Schmidt, Frank Hutter, Noor Awad,
- Abstract要約: ManyFairHPOはフェアネスを意識したモデル選択フレームワークで、実践者が複雑でニュアンスのあるフェアネスの客観的な風景をナビゲートすることを可能にする。
我々は,複数のフェアネス目標のバランス,自己充足的予言などのリスク軽減,公平性を考慮したモデリング決定における利害関係者の導出のための解釈可能な洞察の提供などにおけるMaryFairHPOの有効性を実証する。
- 参考スコア(独自算出の注目度): 37.5215569371757
- License:
- Abstract: Fairness-aware Machine Learning (FairML) applications are often characterized by complex social objectives and legal requirements, frequently involving multiple, potentially conflicting notions of fairness. Despite the well-known Impossibility Theorem of Fairness and extensive theoretical research on the statistical and socio-technical trade-offs between fairness metrics, many FairML tools still optimize or constrain for a single fairness objective. However, this one-sided optimization can inadvertently lead to violations of other relevant notions of fairness. In this socio-technical and empirical study, we frame fairness as a many-objective (MaO) problem by treating fairness metrics as conflicting objectives. We introduce ManyFairHPO, a human-in-the-loop, fairness-aware model selection framework that enables practitioners to effectively navigate complex and nuanced fairness objective landscapes. ManyFairHPO aids in the identification, evaluation, and balancing of fairness metric conflicts and their related social consequences, leading to more informed and socially responsible model-selection decisions. Through a comprehensive empirical evaluation and a case study on the Law School Admissions problem, we demonstrate the effectiveness of ManyFairHPO in balancing multiple fairness objectives, mitigating risks such as self-fulfilling prophecies, and providing interpretable insights to guide stakeholders in making fairness-aware modeling decisions.
- Abstract(参考訳): フェアネスを意識した機械学習(FairML)のアプリケーションは、複雑な社会的目的と法的要件によって特徴づけられることが多い。
フェアネスの理論と、フェアネス指標間の統計的および社会技術的トレードオフに関する広範な理論的研究にもかかわらず、多くのフェアMLツールは、依然として単一のフェアネス目標に対して最適化または制約を施している。
しかし、この一方的な最適化は、必然的に他の関連する公平性の概念に違反する可能性がある。
この社会技術的・実証的研究において、フェアネス指標を矛盾する目的として扱うことにより、フェアネスを多目的(MaO)問題とみなす。
manyFairHPOは、人道的、公正なモデル選択フレームワークで、実践者が複雑でニュアンスのある公正な目的の風景を効果的にナビゲートできる。
ManyFairHPOは、公正度メートル法紛争とその関連する社会的帰結の識別、評価、バランスを補助し、より情報的かつ社会的に責任を負うモデル選択決定へと繋がる。
法学校入学問題における包括的実証評価と事例研究を通じて,多面的公正目標のバランス,自己充足的予言などのリスク軽減,公平性を考慮したモデリング決定における利害関係者の導出のための解釈可能な洞察の提供,等の効果を実証した。
関連論文リスト
- The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Algorithmic Fairness in Business Analytics: Directions for Research and
Practice [24.309795052068388]
本稿では,アルゴリズムフェアネスの先見的,BAに着目したレビューを行う。
まず、バイアスの源泉と測定方法、およびバイアス緩和アルゴリズムに関する最先端の研究について概説する。
次に、ユーティリティ・フェアネスの関係について詳細な議論を行い、これらの2つの構成要素間のトレードオフの頻繁な仮定は、しばしば間違いまたは近視的であることを強調した。
論文 参考訳(メタデータ) (2022-07-22T10:21:38Z) - What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds [8.223468651994352]
フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-05-19T15:37:26Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Ethical Adversaries: Towards Mitigating Unfairness with Adversarial
Machine Learning [8.436127109155008]
個人や組織は、モデルデザイナやデプロイ担当者が責任を持つように、不公平な結果に気付き、テストし、批判します。
トレーニングデータセットから生じる不公平な表現を緩和する上で,これらのグループを支援するフレームワークを提供する。
我々のフレームワークは公平性を改善するために2つの相互運用敵に依存している。
論文 参考訳(メタデータ) (2020-05-14T10:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。