論文の概要: Evaluating Fairness Metrics Across Borders from Human Perceptions
- arxiv url: http://arxiv.org/abs/2403.16101v1
- Date: Sun, 24 Mar 2024 11:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 17:35:42.949877
- Title: Evaluating Fairness Metrics Across Borders from Human Perceptions
- Title(参考訳): 人間の知覚による国境を越えての公正度尺度の評価
- Authors: Yuya Sasaki, Sohei Tokuno, Haruka Maeda, Osamu Sakura,
- Abstract要約: 意思決定シナリオにおける様々な公正度指標の妥当性を評価するため,国際調査を実施している。
我々は,中国,フランス,日本,米国各地の1,000人の参加者から回答を集め,合計4,000件の回答を集めた。
本研究は,個人属性と公正度指標の選択との関係を考察し,これらの嗜好に対する国家的文脈の影響を明らかにする。
- 参考スコア(独自算出の注目度): 3.499870393443268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Which fairness metrics are appropriately applicable in your contexts? There may be instances of discordance regarding the perception of fairness, even when the outcomes comply with established fairness metrics. Several surveys have been conducted to evaluate fairness metrics with human perceptions of fairness. However, these surveys were limited in scope, including only a few hundred participants within a single country. In this study, we conduct an international survey to evaluate the appropriateness of various fairness metrics in decision-making scenarios. We collected responses from 1,000 participants in each of China, France, Japan, and the United States, amassing a total of 4,000 responses, to analyze the preferences of fairness metrics. Our survey consists of three distinct scenarios paired with four fairness metrics, and each participant answers their preference for the fairness metric in each case. This investigation explores the relationship between personal attributes and the choice of fairness metrics, uncovering a significant influence of national context on these preferences.
- Abstract(参考訳): どのフェアネス指標があなたのコンテキストに適切に適用できますか?
結果が確立された公正度基準に適合している場合でも、公正感に関する不一致の事例があるかもしれない。
フェアネスの人間の知覚によるフェアネスの指標を評価するために、いくつかの調査が実施されている。
しかし、これらの調査は対象範囲が限られており、1つの国に数百人しか参加していない。
本研究では,意思決定シナリオにおける様々な公正度指標の妥当性を評価するための国際調査を行う。
我々は,中国,フランス,日本,アメリカ各地の1000人の参加者の回答を収集し,4000件の回答を集め,公正度指標の嗜好を分析した。
調査は,4つのフェアネス指標と組み合わせた3つのシナリオで構成され,各参加者は各ケースにおけるフェアネス指標の好みに答える。
本研究は,個人属性と公正度指標の選択との関係を考察し,これらの嗜好に対する国家的文脈の影響を明らかにする。
関連論文リスト
- Subjective fairness in algorithmic decision-support [0.0]
意思決定文学におけるフェアネスの扱いは、通常客観的な尺度を用いてフェアネスを定量化する。
この研究は、社会学的洞察を用いて、これらのアプローチの限界を強調するために批判的なスタンスを取る。
我々は、トップダウンからボトムアップアプローチに移行する主観的特性として公正を再定義する。
論文 参考訳(メタデータ) (2024-06-28T14:37:39Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Properties of Group Fairness Metrics for Rankings [4.479834103607384]
フェアランキングの文脈において,既存のグループフェアネス指標の比較分析を行った。
我々は、グループフェアネスのメトリクスに対して13のプロパティのセットを設計する、公理的なアプローチをとる。
これらの指標のほとんどは、提案された性質の小さな部分集合のみを満たすことを実証する。
論文 参考訳(メタデータ) (2022-12-29T15:50:18Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - On the Intrinsic and Extrinsic Fairness Evaluation Metrics for
Contextualized Language Representations [74.70957445600936]
様々な自然言語処理タスクの公平度を測定するために、複数のメトリクスが導入された。
これらの指標は,(1)下流アプリケーションにおけるフェアネスを評価する遠因性指標と,(2)上流言語表現モデルにおけるフェアネスを推定する遠因性指標の2つのカテゴリに大別することができる。
論文 参考訳(メタデータ) (2022-03-25T22:17:43Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - On the Choice of Fairness: Finding Representative Fairness Metrics for a
Given Context [5.667221573173013]
フェアネスの様々な概念が定義されているが、適切な計量を選択することは困難である。
トレードオフと不合理な定理により、そのような選択はさらに複雑で議論を呼んでいる。
そこで本稿では,あるコンテキストに対して異なる測度間の相関関係とトレードオフを自動的に検出するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T04:17:38Z) - Estimation of Fair Ranking Metrics with Incomplete Judgments [70.37717864975387]
本研究では,4つの評価指標のサンプリング手法と推定手法を提案する。
ラベル付きアイテムの数が極めて少ない場合でも動作可能な頑健で偏りのない推定器を定式化する。
論文 参考訳(メタデータ) (2021-08-11T10:57:00Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。