論文の概要: Perceptions of the Fairness Impacts of Multiplicity in Machine Learning
- arxiv url: http://arxiv.org/abs/2409.12332v2
- Date: Thu, 23 Jan 2025 17:16:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:56:25.766529
- Title: Perceptions of the Fairness Impacts of Multiplicity in Machine Learning
- Title(参考訳): 機械学習におけるマルチプライシティの公正さの影響の知覚
- Authors: Anna P. Meyer, Yea-Seul Kim, Aws Albarghouthi, Loris D'Antoni,
- Abstract要約: 多重性 - 複数の良いモデルの存在 - は、いくつかの予測が本質的に任意のものであることを意味する。
マルチプライシティが機械学習フェアネスに対する利害関係者の認識にどのように影響するかを調査する。
この結果から,モデル開発者は公平性を維持するために,多元性を扱うことを意識すべきであることが示唆された。
- 参考スコア(独自算出の注目度): 22.442918897954957
- License:
- Abstract: Machine learning (ML) is increasingly used in high-stakes settings, yet multiplicity - the existence of multiple good models - means that some predictions are essentially arbitrary. ML researchers and philosophers posit that multiplicity poses a fairness risk, but no studies have investigated whether stakeholders agree. In this work, we conduct a survey to see how multiplicity impacts lay stakeholders' - i.e., decision subjects' - perceptions of ML fairness, and which approaches to address multiplicity they prefer. We investigate how these perceptions are modulated by task characteristics (e.g., stakes and uncertainty). Survey respondents think that multiplicity threatens the fairness of model outcomes, but not the appropriateness of using the model, even though existing work suggests the opposite. Participants are strongly against resolving multiplicity by using a single model (effectively ignoring multiplicity) or by randomizing the outcomes. Our results indicate that model developers should be intentional about dealing with multiplicity in order to maintain fairness.
- Abstract(参考訳): 機械学習(ML)は、ハイテイクな設定でますます使われていますが、多重性 — 複数の優れたモデルの存在 — は、いくつかの予測が本質的に任意であることを意味しています。
MLの研究者や哲学者は、乗法が公正なリスクをもたらすと主張しているが、利害関係者が同意するかどうかについての調査は行われていない。
本研究では,マルチプライオリティが利害関係者にどのような影響を与えるか,すなわち意思決定対象がMLの公平さに対する認識と,彼らが好むマルチプライオリティへのアプローチを調査する。
本研究では,これらの知覚がどのようにタスク特性(例えば,利害関係や不確実性)によって調節されるかを検討する。
調査の回答者は、重複性はモデル結果の公平性を脅かすが、モデルを使用することの適切性は、既存の研究が反対であるにもかかわらず、そうではないと考えている。
参加者は、単一のモデル(効果的に多重性を無視した)または結果のランダム化によって、多重性を解決することに強く反対している。
この結果から,モデル開発者は公平性を維持するために,多元性を扱うことを意識すべきであることが示唆された。
関連論文リスト
- Seemingly Plausible Distractors in Multi-Hop Reasoning: Are Large Language Models Attentive Readers? [6.525065859315515]
大規模言語モデル (LLM) がマルチホップ推論ベンチマークの簡易化に有効かどうかを検討する。
この発見に触発されて、我々は、もっともらしいマルチホップ推論連鎖を生成することで、挑戦的なマルチホップ推論ベンチマークを提案する。
その結果, マルチホップ推論の性能はF1スコアの45%まで低下していることがわかった。
論文 参考訳(メタデータ) (2024-09-08T19:22:58Z) - Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - An Empirical Investigation into Benchmarking Model Multiplicity for
Trustworthy Machine Learning: A Case Study on Image Classification [0.8702432681310401]
本稿では,モデル設計の様々な側面にまたがる多重性の1ストップ実験ベンチマークを提案する。
また,マルチプライシティシート(multiplicity sheets)と呼ばれるフレームワークを開発し,様々なシナリオにおけるマルチプライシティのベンチマークを行う。
モデル選択中に追加仕様を適用した後でも,マルチプライシティがディープラーニングモデルに持続することを示す。
論文 参考訳(メタデータ) (2023-11-24T22:30:38Z) - Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Multi-Target Multiplicity: Flexibility and Fairness in Target
Specification under Resource Constraints [76.84999501420938]
対象の選択が個人の結果にどのように影響するかを評価するための概念的および計算的枠組みを導入する。
目的変数選択から生じる多重度は, 1つのターゲットのほぼ最適モデルから生じるものよりも大きいことが示される。
論文 参考訳(メタデータ) (2023-06-23T18:57:14Z) - Arbitrariness Lies Beyond the Fairness-Accuracy Frontier [3.383670923637875]
我々は,最先端のフェアネス介入が,グループフェアネスと精度の指標よりも高い予測倍率を隠蔽できることを示した。
より一貫した予測を確実に保証するフェアネス介入に適用可能なアンサンブルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-15T18:15:46Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - MORAL: Aligning AI with Human Norms through Multi-Objective Reinforced
Active Learning [14.06682547001011]
最先端の手法は通常、単一の報酬モデルを学ぶことに集中します。
本稿では,多目的強化型アクティブラーニング(MORAL)を提案する。
提案手法では,複数ポリシの計算を不要にしながら,さまざまな好みに対して深いRLエージェントを対話的にチューニングすることが可能である。
論文 参考訳(メタデータ) (2021-12-30T19:21:03Z) - Multi-Stage Decentralized Matching Markets: Uncertain Preferences and
Strategic Behaviors [91.3755431537592]
本稿では、現実世界のマッチング市場で最適な戦略を学ぶためのフレームワークを開発する。
我々は,不確実性レベルが特徴の福祉対フェアネストレードオフが存在することを示す。
シングルステージマッチングと比較して、マルチステージマッチングで参加者がより良くなることを証明します。
論文 参考訳(メタデータ) (2021-02-13T19:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。