論文の概要: Diversity and Inclusion Metrics in Subset Selection
- arxiv url: http://arxiv.org/abs/2002.03256v1
- Date: Sun, 9 Feb 2020 00:29:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:45:41.170000
- Title: Diversity and Inclusion Metrics in Subset Selection
- Title(参考訳): サブセット選択における多様性と包含度
- Authors: Margaret Mitchell, Dylan Baker, Nyalleng Moorosi, Emily Denton, Ben
Hutchinson, Alex Hanna, Timnit Gebru, Jamie Morgenstern
- Abstract要約: 公平性の倫理的概念は、最近、幅広い制約と目的を記述するために機械学習(ML)設定に応用されている。
これらの概念に基づいたメトリクスを導入し、これらを分離して適用し、さらに公正な制約を課す。
社会的選択方法は、さらに、集合を集約し、好む集合を選択するために利用することができる。
- 参考スコア(独自算出の注目度): 17.79121536725958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ethical concept of fairness has recently been applied in machine learning
(ML) settings to describe a wide range of constraints and objectives. When
considering the relevance of ethical concepts to subset selection problems, the
concepts of diversity and inclusion are additionally applicable in order to
create outputs that account for social power and access differentials. We
introduce metrics based on these concepts, which can be applied together,
separately, and in tandem with additional fairness constraints. Results from
human subject experiments lend support to the proposed criteria. Social choice
methods can additionally be leveraged to aggregate and choose preferable sets,
and we detail how these may be applied.
- Abstract(参考訳): 公平性という倫理的概念は、最近、幅広い制約と目的を記述する機械学習(ML)設定に応用されている。
部分集合選択問題に対する倫理的概念の関連性を考えるとき、多様性と包含性の概念は、社会的権力とアクセスの差を考慮したアウトプットを作成するために追加的に適用される。
これらの概念に基づいたメトリクスを導入し、これらを分離して適用し、さらに公正な制約を課す。
人体実験の結果は,提案基準を支持している。
社会的選択方法は、さらに、集合を集約し、好む集合を選択するために利用することができる。
関連論文リスト
- Social Choice for Heterogeneous Fairness in Recommendation [9.753088666705985]
推薦システムにおけるアルゴリズムの公正性は、様々な利害関係者のニーズによく注意する必要がある。
それまでの作業はしばしば、公正性の固定された単目的の定義によって制限されてきた。
我々の研究は、計算社会の選択の観点からのフェアネスを推奨する。
論文 参考訳(メタデータ) (2024-10-06T17:01:18Z) - Multi-Target Multiplicity: Flexibility and Fairness in Target
Specification under Resource Constraints [76.84999501420938]
対象の選択が個人の結果にどのように影響するかを評価するための概念的および計算的枠組みを導入する。
目的変数選択から生じる多重度は, 1つのターゲットのほぼ最適モデルから生じるものよりも大きいことが示される。
論文 参考訳(メタデータ) (2023-06-23T18:57:14Z) - Achieving Diversity in Counterfactual Explanations: a Review and
Discussion [3.6066164404432883]
XAI(Explainable Artificial Intelligence)の分野では、ユーザに対して、トレーニングされた決定モデルの予測を偽物例で説明する。
本稿では、この多様性の概念のために提案された多くの、時には矛盾する定義についてレビューする。
論文 参考訳(メタデータ) (2023-05-10T02:09:19Z) - Group Fairness in Prediction-Based Decision Making: From Moral
Assessment to Implementation [0.0]
与えられた文脈における公平さの意味の道徳的評価のための枠組みを導入する。
評価結果を、確立された統計的グループフェアネス基準にマッピングする。
我々は、FECの原則を拡張して、すべての種類のグループフェアネス基準をカバーします。
論文 参考訳(メタデータ) (2022-10-19T10:44:21Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Diversity in Sociotechnical Machine Learning Systems [2.9973947110286163]
近年,機械学習(ML)研究における社会文化的多様性への関心が高まっている。
我々は、科学哲学と異なる多様性概念の分類を示し、これらの概念の根底にある明確な根拠を解明する。
多様性がグループパフォーマンスに寄与するメカニズムの概要を提供する。
論文 参考訳(メタデータ) (2021-07-19T21:26:38Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Joint Contrastive Learning with Infinite Possibilities [114.45811348666898]
本稿では,新しい確率論的モデリングによるコントラスト学習における最近の発展の有用性について考察する。
コントラスト学習(Joint Contrastive Learning, JCL)という,コントラスト学習の特定の形態を導出する。
論文 参考訳(メタデータ) (2020-09-30T16:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。