論文の概要: MESD: Detecting and Mitigating Procedural Bias in Intersectional Groups
- arxiv url: http://arxiv.org/abs/2603.13452v1
- Date: Fri, 13 Mar 2026 15:42:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.222762
- Title: MESD: Detecting and Mitigating Procedural Bias in Intersectional Groups
- Title(参考訳): MESD : 間欠的グループにおける手続き的バイアスの検出と緩和
- Authors: Gideon Popoola, John Sheppard,
- Abstract要約: 本研究は、複数の保護されたカテゴリーにおける公平性に関する説明可能性を検討することにより、重要なギャップに対処する。
複数のデータセットにまたがる実験結果から、UEFは目的を効果的にバランスしていることが分かる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Research about bias in machine learning has mostly focused on outcome-oriented fairness metrics (e.g., equalized odds) and on a single protected category. Although these approaches offer great insight into bias in ML, they provide limited insight into model procedure bias. To address this gap, we proposed multi-category explanation stability disparity (MESD), an intersectional, procedurally oriented metric that measures the disparity in the quality of explanations across intersectional subgroups in multiple protected categories. MESD serves as a complementary metric to outcome-oriented metrics, providing detailed insight into the procedure of a model. To further extend the scope of the holistic selection model, we also propose a multi-objective optimization framework, UEF (Utility-Explanation-Fairness), that jointly optimizes three objectives. Experimental results across multiple datasets show that UEF effectively balances objectives. Also, the results show that MESD can effectively capture the explanation difference between intersectional groups. This research addresses an important gap by examining explainability with respect to fairness across multiple protected categories.
- Abstract(参考訳): 機械学習におけるバイアスに関する研究は、主に結果指向の公正度指標(例えば、等化確率)と、単一の保護されたカテゴリに焦点を当てている。
これらのアプローチは、MLにおけるバイアスに関する深い洞察を提供するが、モデルプロシージャバイアスに関する限られた洞察を提供する。
このギャップに対処するため,複数保護カテゴリーの交差部分群間の説明の質の相違を計測する,交差性,手続き的指向の指標である多カテゴリ説明安定不一致(MESD)を提案した。
MESDは結果指向のメトリクスを補完する指標として機能し、モデルの手順に関する詳細な洞察を提供する。
包括的選択モデルの範囲をさらに広げるために,3つの目的を共同で最適化する多目的最適化フレームワークUEF(Utility-Explanation-Fairness)を提案する。
複数のデータセットにまたがる実験結果から、UEFは目的を効果的にバランスしていることが分かる。
また,MESDは交差点群間の説明差を効果的に捉えることができることを示した。
本研究は、複数の保護されたカテゴリーにおける公平性に関する説明可能性を検討することにより、重要なギャップに対処する。
関連論文リスト
- SetPO: Set-Level Policy Optimization for Diversity-Preserving LLM Reasoning [50.93295951454092]
本稿では,カーネル化類似性を用いたサンプル軌道上で定義された設定レベル多様性の目的について紹介する。
提案手法は,各サンプル軌跡に対する余剰余剰貢献を導出し,この目的を政策最適化のためのプラグイン・アドバンテージ・シェーピング用語として統合する。
様々なモデルスケールで実験を行い、提案アルゴリズムの有効性を示し、様々なベンチマークでPass@1とPass@Kの双方において、強いベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2026-02-01T07:13:20Z) - FAIRWELL: Fair Multimodal Self-Supervised Learning for Wellbeing Prediction [16.913286294651236]
本稿では、以下の3つのメカニズムを用いて、より公平な表現を学習するための新しい主観レベル損失関数を提案する。
我々は,現実の異種医療データセットを3つ評価した。
論文 参考訳(メタデータ) (2025-08-22T19:03:06Z) - Fairness at Every Intersection: Uncovering and Mitigating Intersectional Biases in Multimodal Clinical Predictions [17.578593616991927]
我々は、広範囲なマルチモーダルデータセットをソーシングすることで、予測における潜在的な交叉バイアスを明らかにするための最初のステップを採っている。
我々は、マルチモーダルソースから統一されたテキスト表現を学習することにより、データセット上で下流タスクとバイアス評価を実行し、ベンチマークする。
提案したサブグループ固有バイアス緩和法は,異なるデータセット間で頑健であることが示唆された。
論文 参考訳(メタデータ) (2024-11-30T22:53:11Z) - Deriving Causal Order from Single-Variable Interventions: Guarantees & Algorithm [14.980926991441345]
介入データを含むデータセットは,データ分布に関する現実的な仮定の下で効果的に抽出可能であることを示す。
本稿では,観察的および介入的設定における各変数の限界分布の比較に依拠する,介入忠実性の新たな変種を紹介する。
また、多数の単一変数の介入を含むデータセットから因果順序を推測するアルゴリズムであるIntersortを導入する。
論文 参考訳(メタデータ) (2024-05-28T16:07:17Z) - Does Machine Bring in Extra Bias in Learning? Approximating Fairness in Models Promptly [2.002741592555996]
機械学習モデルの識別レベルを評価するための既存の技術には、一般的に使用されるグループと個別の公正度尺度が含まれる。
本稿では,集合間の距離に基づく「HFM(Harmonic Fairness measure)」を提案する。
実験結果から,提案した公正度尺度 HFM が有効であり,提案した ApproxDist が有効かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2024-05-15T11:07:40Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Addressing multiple metrics of group fairness in data-driven decision
making [2.750586731051391]
FAT-ML文献は、社会デミノグラフィーグループに対する差別を測定するために、様々なグループの公正度尺度を提案する。
これらのメトリクスのいくつかは、同じグループと機械学習メソッドのために、2つまたは3つの主要なクラスタにまとめられていることを観察する。
グループフェアネス指標の主成分分析(PCA)を用いて,2次元の多次元フェアネスを可視化する頑健な手法を提案する。
論文 参考訳(メタデータ) (2020-03-10T15:13:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。