論文の概要: Mitigating Voter Attribute Bias for Fair Opinion Aggregation
- arxiv url: http://arxiv.org/abs/2307.10749v1
- Date: Thu, 20 Jul 2023 10:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 13:40:12.861300
- Title: Mitigating Voter Attribute Bias for Fair Opinion Aggregation
- Title(参考訳): 公正な意見集約のための投票属性バイアスの緩和
- Authors: Ryosuke Ueda, Koh Takeuchi, Hisashi Kashima
- Abstract要約: 本稿では, 投票者属性に基づく公正な意見集約を実現する方法を検討し, 集計結果の公平性を評価する。
ソフトラベル推定の精度を向上した新しいソフトD&Sモデルを提案する。
我々は, 音声合成データと半合成データを用いて, 意見集約モデル(Soft D&Sを含む)の公平性を, 異なる公平性オプションと組み合わせて評価する。
- 参考スコア(独自算出の注目度): 19.460509608096217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aggregation of multiple opinions plays a crucial role in decision-making,
such as in hiring and loan review, and in labeling data for supervised
learning. Although majority voting and existing opinion aggregation models are
effective for simple tasks, they are inappropriate for tasks without
objectively true labels in which disagreements may occur. In particular, when
voter attributes such as gender or race introduce bias into opinions, the
aggregation results may vary depending on the composition of voter attributes.
A balanced group of voters is desirable for fair aggregation results but may be
difficult to prepare. In this study, we consider methods to achieve fair
opinion aggregation based on voter attributes and evaluate the fairness of the
aggregated results. To this end, we consider an approach that combines opinion
aggregation models such as majority voting and the Dawid and Skene model (D&S
model) with fairness options such as sample weighting. To evaluate the fairness
of opinion aggregation, probabilistic soft labels are preferred over discrete
class labels. First, we address the problem of soft label estimation without
considering voter attributes and identify some issues with the D&S model. To
address these limitations, we propose a new Soft D&S model with improved
accuracy in estimating soft labels. Moreover, we evaluated the fairness of an
opinion aggregation model, including Soft D&S, in combination with different
fairness options using synthetic and semi-synthetic data. The experimental
results suggest that the combination of Soft D&S and data splitting as a
fairness option is effective for dense data, whereas weighted majority voting
is effective for sparse data. These findings should prove particularly valuable
in supporting decision-making by human and machine-learning models with
balanced opinion aggregation.
- Abstract(参考訳): 複数の意見の集約は、雇用や融資レビュー、教師付き学習のためのラベル付けデータなど、意思決定において重要な役割を果たす。
多数決と既存の世論集計モデルは単純なタスクに有効であるが、不一致が生じる可能性のある客観的なラベルがないタスクには不適切である。
特に、性別や人種などの有権者属性が意見に偏りをもたらす場合、集計結果は投票者属性の構成によって異なる可能性がある。
バランスの取れた有権者のグループは公平な集計結果に望ましいが、準備が難しい可能性がある。
本研究では, 投票者属性に基づく公正な意見集約を実現する手法を検討し, 集計結果の公平性を評価する。
この目的のために、多数決のような意見集約モデルとdwid and skeneモデル(d&sモデル)とサンプル重み付けのような公平性オプションを組み合わせたアプローチを検討する。
意見集約の公平性を評価するために,確率的ソフトラベルが離散クラスラベルよりも好まれる。
まず,投票者属性を考慮せずにソフトラベル推定の問題に対処し,d&sモデルにおける問題点を特定する。
これらの制約に対処するため,ソフトラベル推定の精度を向上させるソフトD&Sモデルを提案する。
さらに, 合成データと半合成データを用いて, ソフトd&sを含む意見集約モデルのフェアネスを, 異なるフェアネスオプションと組み合わせて評価した。
実験結果から,ソフトD&Sと公平性オプションとしてのデータ分割の組み合わせは高密度データに有効であるのに対し,重み付き多数決はスパースデータに有効であることが示唆された。
これらの知見は、バランスのとれた意見集約を持つ人間および機械学習モデルによる意思決定を支援する上で特に有用である。
関連論文リスト
- Mitigating Matching Biases Through Score Calibration [1.5530839016602822]
レコードマッチングにおけるバイアスの結果は、人口集団間での不平等なエラー率をもたらし、倫理的および法的懸念を提起する。
本稿では,従来の回帰モデルに適用された公正度指標を適用し,レコードマッチングにおけるすべてのしきい値の累積バイアスを評価する。
本稿では, 最適輸送理論とワッサーシュタインバリセンタを利用して, 階層群間でのマッチングスコアのバランスをとることを目的とした, ポストプロセッシングキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2024-11-03T21:01:40Z) - Diverging Preferences: When do Annotators Disagree and do Models Know? [92.24651142187989]
我々は,4つのハイレベルクラスにまたがる10のカテゴリにまたがる相違点の分類法を開発した。
意見の相違の大部分は、標準的な報酬モデリングアプローチに反対している。
本研究は,選好の変化を識別し,評価とトレーニングへの影響を緩和する手法を開発する。
論文 参考訳(メタデータ) (2024-10-18T17:32:22Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - The Unbearable Weight of Massive Privilege: Revisiting Bias-Variance
Trade-Offs in the Context of Fair Prediction [7.975779552420981]
単一モデルによるトレードオフを改善することを目的とした条件付きid(ciid)モデルを提案する。
我々は、CompASおよびフォークテーブルデータセット上で、我々の設定を実証的にテストする。
分析の結果,条件付きモデルが好まれる原則的手順や具体的な実世界のユースケースが存在する可能性が示唆された。
論文 参考訳(メタデータ) (2023-02-17T05:34:35Z) - Making ML models fairer through explanations: the case of LimeOut [7.952582509792971]
アルゴリズムによる決定は今では日常的に使われており、複雑でバイアスのかかる機械学習(ML)プロセスに基づいている。
これは、偏見のある決定が個人や社会全体に与える影響を考えると、いくつかの懸念を提起する。
モデルフェアネスを改善するために,「フィーチャードロップアウト」というシンプルなアイデアと「アンサンブルアプローチ」を併用する方法について述べる。
論文 参考訳(メタデータ) (2020-11-01T19:07:11Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。