論文の概要: Fairness Preferences, Actual and Hypothetical: A Study of Crowdworker
Incentives
- arxiv url: http://arxiv.org/abs/2012.04216v1
- Date: Tue, 8 Dec 2020 05:00:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-05-16 21:27:53.468445
- Title: Fairness Preferences, Actual and Hypothetical: A Study of Crowdworker
Incentives
- Title(参考訳): フェアネスの選好と現実と仮説:クラウドワーカーインセンティブの研究
- Authors: Angie Peng and Jeff Naecker and Ben Hutchinson and Andrew Smart and
Nyalleng Moorosi
- Abstract要約: 本稿では,これらの質問に対する研究プログラムと実験設計について概説する。
投票は、グループの半分と残りの半分の実際の(実際の支払い結果と結びついていない)の仮定であり、グループの実際の好みと仮定された(統計的な)好みの関係を理解することができます。
- 参考スコア(独自算出の注目度): 1.854931308524932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How should we decide which fairness criteria or definitions to adopt in
machine learning systems? To answer this question, we must study the fairness
preferences of actual users of machine learning systems. Stringent parity
constraints on treatment or impact can come with trade-offs, and may not even
be preferred by the social groups in question (Zafar et al., 2017). Thus it
might be beneficial to elicit what the group's preferences are, rather than
rely on a priori defined mathematical fairness constraints. Simply asking for
self-reported rankings of users is challenging because research has shown that
there are often gaps between people's stated and actual preferences(Bernheim et
al., 2013).
This paper outlines a research program and experimental designs for
investigating these questions. Participants in the experiments are invited to
perform a set of tasks in exchange for a base payment--they are told upfront
that they may receive a bonus later on, and the bonus could depend on some
combination of output quantity and quality. The same group of workers then
votes on a bonus payment structure, to elicit preferences. The voting is
hypothetical (not tied to an outcome) for half the group and actual (tied to
the actual payment outcome) for the other half, so that we can understand the
relation between a group's actual preferences and hypothetical (stated)
preferences. Connections and lessons from fairness in machine learning are
explored.
- Abstract(参考訳): 機械学習システムで採用すべき公平性基準や定義をどのように決めるべきか?
この疑問に答えるためには,機械学習システムの実際の利用者の公平性を調査する必要がある。
治療や影響に対する厳格なパリティ制約はトレードオフを伴う可能性があり、問題の社会集団には好まれない可能性がある(zafar et al., 2017)。
したがって、事前定義された数学的公正性制約に頼るよりも、群の選好が何であるかを引き出す方が有益かもしれない。
ユーザーの自己報告されたランキングを求めることは、人の発言と実際の嗜好の間にはしばしばギャップがあることが研究によって示されている(Bernheim et al., 2013)。
本稿では,これらの質問に対する研究プログラムと実験設計について概説する。
実験の参加者は、基礎的な支払いと引き換えに一連のタスクを実行するように招待され、彼らは事前にボーナスを後で受け取ることができると告げられ、ボーナスは出力量と品質の組み合わせに依存する可能性がある。
労働者の同じグループがボーナスの支払い構造で投票し、好みを引き出す。
投票は、半数が仮定的(結果とは無関係)で、残り半分が実際の(実際の支払い結果に比較)なので、グループの実際の嗜好と仮説的(統計的)な選好との関係を理解することができる。
機械学習における公平な関係と教訓を探求する。
関連論文リスト
- Towards Large Language Models that Benefit for All: Benchmarking Group Fairness in Reward Models [16.977176752570617]
大規模言語モデル(LLM)は、ますます強力で、人間のユーザにとってアクセスしやすくなっている。
多様な人口集団、すなわちグループフェアネスの公平性を保証することは、批判的な倫理的関心事である。
この研究は、学習した報酬モデルのグループフェアネスをベンチマークする。
論文 参考訳(メタデータ) (2025-03-10T19:39:39Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Equal Experience in Recommender Systems [21.298427869586686]
我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-12T05:53:05Z) - Group Meritocratic Fairness in Linear Contextual Bandits [32.15680917495674]
エージェントがプールから1つの候補を選択し、各候補がセンシティブなグループに属するという線形文脈帯域問題について検討する。
エージェントのポリシーは、最も高い相対ランクの候補を選択する際に公平であることを示す公平性の概念を提案する。
論文 参考訳(メタデータ) (2022-06-07T09:54:38Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Bayes-Optimal Classifiers under Group Fairness [32.52143951145071]
本稿では,群フェアネスの下でベイズ最適分類器を導出するための統一的な枠組みを提供する。
本研究では,FairBayesと呼ばれるグループベースの閾値決定手法を提案する。
論文 参考訳(メタデータ) (2022-02-20T03:35:44Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。