論文の概要: Measuring Perceptions of Fairness in AI Systems: The Effects of Infra-marginality
- arxiv url: http://arxiv.org/abs/2603.05889v1
- Date: Fri, 06 Mar 2026 04:15:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.076892
- Title: Measuring Perceptions of Fairness in AI Systems: The Effects of Infra-marginality
- Title(参考訳): AIシステムにおけるフェアネスの知覚の測定--赤外性の影響
- Authors: Schrasing Tong, Minseok Jung, Ilaria Liccardi, Lalana Kagal,
- Abstract要約: 仮説的医学的意思決定シナリオにおいて,85名の被験者によるユーザスタディを提示する。
以上の結果から,参加者の公正度は単純統計値と同等ではなかったことが示唆された。
これらの結果は、公正判断は結果だけでなく、不一致の原因についての信念によっても形成されていることを示している。
- 参考スコア(独自算出の注目度): 2.48490797934472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differences in data distributions between demographic groups, known as the problem of infra-marginality, complicate how people evaluate fairness in machine learning models. We present a user study with 85 participants in a hypothetical medical decision-making scenario to examine two treatments: group-specific model performance and training data availability. Our results show that participants did not equate fairness with simple statistical parity. When group-specific performances were equal or unavailable, participants preferred models that produced equal outcomes; when performances differed, especially in ways consistent with data imbalances, they judged models that preserved those differences as more fair. These findings highlight that fairness judgments are shaped not only by outcomes, but also by beliefs about the causes of disparities. We discuss implications for popular group fairness definitions and system design, arguing that accounting for distributional context is critical to aligning algorithmic fairness metrics with human expectations in real-world applications.
- Abstract(参考訳): infra-marginality問題として知られる人口集団間でのデータ分布の違いは、機械学習モデルにおいて人々が公正さをどのように評価するかを複雑にしている。
本研究は,85名の被験者を対象に,グループ固有のモデル性能とトレーニングデータ利用率の2つの治療法を検討するための仮説的医療意思決定シナリオのユーザスタディである。
以上の結果から,参加者の公正度は単純統計値と同等ではなかったことが示唆された。
グループ固有のパフォーマンスが等しければ、参加者は同等の結果をもたらすモデルを好むが、特にデータ不均衡と整合性のある方法でのパフォーマンスが異なる場合には、これらの違いをより公平に保存するモデルを判断した。
これらの結果は、公正判断は結果だけでなく、不一致の原因についての信念によっても形成されていることを示している。
本稿では,グループフェアネスの定義やシステム設計が持つ意味について論じるとともに,実世界のアプリケーションにおいて,アルゴリズム的フェアネス指標と人間の期待を一致させるためには,分散コンテキストの考慮が不可欠であると主張した。
関連論文リスト
- On the use of graph models to achieve individual and group fairness [0.6299766708197883]
我々は、動的システムとホモロジーに基づくツールを活用して公平性をモデル化するための、せん断拡散に基づく理論的枠組みを提供する。
本稿では,異なる公平度尺度を扱うネットワークトポロジの集合について述べる。
本稿では,提案モデルの性能を,精度と公平性の観点から示す。
論文 参考訳(メタデータ) (2026-01-13T18:17:43Z) - Understanding challenges to the interpretation of disaggregated evaluations of algorithmic fairness [49.35494016290887]
関係する人口を表わすが、実世界の格差を反映するデータである場合、サブグループ間での平等なパフォーマンスは、信頼できない公平さの尺度であることを示す。
本フレームワークでは, 因果関係の明示的な仮定と分析を相補して, 相反や分布変化の制御を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:40:31Z) - Fairness Perceptions in Regression-based Predictive Models [0.19999259391104385]
本稿では, 回帰分析ツールの妥当性を評価するために, 分散に基づくグループフェアネスの概念を3つ導入する。
群衆のフィードバックは、社会的公平さの選好を推定するために使用される。
本研究は, 男女・人種群に対して, 年齢群では不公平ではあるが, 性別・人種群では公平であると考えられた。
論文 参考訳(メタデータ) (2025-05-08T01:48:27Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。