論文の概要: Perceptions of the Fairness Impacts of Multiplicity in Machine Learning
- arxiv url: http://arxiv.org/abs/2409.12332v1
- Date: Wed, 18 Sep 2024 21:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 15:26:10.173210
- Title: Perceptions of the Fairness Impacts of Multiplicity in Machine Learning
- Title(参考訳): 機械学習におけるマルチプライシティの公正さの影響の知覚
- Authors: Anna P. Meyer, Yea-Seul Kim, Aws Albarghouthi, Loris D'Antoni,
- Abstract要約: 多重性 -- 複数の良いモデルの存在 -- は、いくつかの予測が本質的に任意のものであることを意味する。
マルチプライシティの存在が、機械学習フェアネスに対する利害関係者の認識にどのように影響するかを調査する。
この結果から,モデル開発者は公平性を維持するために,多元性を扱うことを意識すべきであることが示唆された。
- 参考スコア(独自算出の注目度): 22.442918897954957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is increasingly used in high-stakes settings, yet multiplicity -- the existence of multiple good models -- means that some predictions are essentially arbitrary. ML researchers and philosophers posit that multiplicity poses a fairness risk, but no studies have investigated whether stakeholders agree. In this work, we conduct a survey to see how the presence of multiplicity impacts lay stakeholders' -- i.e., decision subjects' -- perceptions of ML fairness, and which approaches to address multiplicity they prefer. We investigate how these perceptions are modulated by task characteristics (e.g., stakes and uncertainty). Survey respondents think that multiplicity lowers distributional, but not procedural, fairness, even though existing work suggests the opposite. Participants are strongly against resolving multiplicity by using a single good model (effectively ignoring multiplicity) or by randomizing over possible outcomes. Our results indicate that model developers should be intentional about dealing with multiplicity in order to maintain fairness.
- Abstract(参考訳): 機械学習(ML)は、ハイテイクな設定でますます使われていますが、多重性(multiplicity) -- 複数の優れたモデルの存在 -- は、いくつかの予測が本質的に任意であることを意味しています。
MLの研究者や哲学者は、乗法が公正なリスクをもたらすと主張しているが、利害関係者が同意するかどうかについての調査は行われていない。
本研究では,マルチプライシティの存在が利害関係者の,すなわち意思決定対象の – MLフェアネスの認識にどのような影響を及ぼすか,そして彼らが好むマルチプライシティにどのアプローチで対処するかを調査する。
本研究では,これらの知覚がどのようにタスク特性(例えば,利害関係や不確実性)によって調節されるかを検討する。
調査の回答者は、重複性は分散性を減らすが、手続き性、公正性は低下すると考えている。
参加者は、単一の良いモデル(効果的に多重性を無視している)を使用することや、可能な結果に対してランダム化することにより、多重性を解決することに強く反対している。
この結果から,モデル開発者は公平性を維持するために,多元性を扱うことを意識すべきであることが示唆された。
関連論文リスト
- Diverging Preferences: When do Annotators Disagree and do Models Know? [92.24651142187989]
我々は,4つのハイレベルクラスにまたがる10のカテゴリにまたがる相違点の分類法を開発した。
意見の相違の大部分は、標準的な報酬モデリングアプローチに反対している。
本研究は,選好の変化を識別し,評価とトレーニングへの影響を緩和する手法を開発する。
論文 参考訳(メタデータ) (2024-10-18T17:32:22Z) - Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Recourse under Model Multiplicity via Argumentative Ensembling
(Technical Report) [17.429631079094186]
我々は、recourse-aware ensembling と命名し、その解決方法が満足すべきいくつかの望ましい性質を同定する。
理論的および実験的に、議論的アンサンブルは既存の手法に欠けている性質を満足し、トレードオフは最小のWrt精度であることを示す。
論文 参考訳(メタデータ) (2023-12-22T22:33:39Z) - An Empirical Investigation into Benchmarking Model Multiplicity for
Trustworthy Machine Learning: A Case Study on Image Classification [0.8702432681310401]
本稿では,モデル設計の様々な側面にまたがる多重性の1ストップ実験ベンチマークを提案する。
また,マルチプライシティシート(multiplicity sheets)と呼ばれるフレームワークを開発し,様々なシナリオにおけるマルチプライシティのベンチマークを行う。
モデル選択中に追加仕様を適用した後でも,マルチプライシティがディープラーニングモデルに持続することを示す。
論文 参考訳(メタデータ) (2023-11-24T22:30:38Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Cross Feature Selection to Eliminate Spurious Interactions and Single
Feature Dominance Explainable Boosting Machines [0.0]
解釈性は法的、倫理的、実践的な理由において不可欠である。
高性能モデルは、冗長な特徴と単一機能支配との素早い相互作用に悩まされることがある。
本稿では,これらの課題に対処するための新しいアプローチとして,代替のクロスフィーチャー選択,アンサンブル機能,モデル構成変更手法について検討する。
論文 参考訳(メタデータ) (2023-07-17T13:47:41Z) - Multi-Target Multiplicity: Flexibility and Fairness in Target
Specification under Resource Constraints [76.84999501420938]
対象の選択が個人の結果にどのように影響するかを評価するための概念的および計算的枠組みを導入する。
目的変数選択から生じる多重度は, 1つのターゲットのほぼ最適モデルから生じるものよりも大きいことが示される。
論文 参考訳(メタデータ) (2023-06-23T18:57:14Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。