論文の概要: The FairCeptron: A Framework for Measuring Human Perceptions of
Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2102.04119v1
- Date: Mon, 8 Feb 2021 10:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:31:11.527092
- Title: The FairCeptron: A Framework for Measuring Human Perceptions of
Algorithmic Fairness
- Title(参考訳): The FairCeptron: アルゴリズムの公平性の人間の知覚を測定するためのフレームワーク
- Authors: Georg Ahnert, Ivan Smirnov, Florian Lemmerich, Claudia Wagner, Markus
Strohmaier
- Abstract要約: FairCeptronフレームワークは、ランク付けや分類のようなアルゴリズムによる意思決定における公平さの知覚を研究するためのアプローチである。
このフレームワークは、公正シナリオ生成、公正知覚誘発、公正知覚分析を含む。
FairCeptronフレームワークの実装は公開されており、他のアプリケーションコンテキストにおけるアルゴリズム的公正性の認識に容易に適応することができる。
- 参考スコア(独自算出の注目度): 1.4449464910072918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measures of algorithmic fairness often do not account for human perceptions
of fairness that can substantially vary between different sociodemographics and
stakeholders. The FairCeptron framework is an approach for studying perceptions
of fairness in algorithmic decision making such as in ranking or
classification. It supports (i) studying human perceptions of fairness and (ii)
comparing these human perceptions with measures of algorithmic fairness. The
framework includes fairness scenario generation, fairness perception
elicitation and fairness perception analysis. We demonstrate the FairCeptron
framework by applying it to a hypothetical university admission context where
we collect human perceptions of fairness in the presence of minorities. An
implementation of the FairCeptron framework is openly available, and it can
easily be adapted to study perceptions of algorithmic fairness in other
application contexts. We hope our work paves the way towards elevating the role
of studies of human fairness perceptions in the process of designing
algorithmic decision making systems.
- Abstract(参考訳): アルゴリズム的公平度の測定は、しばしば異なる社会デモグラフィと利害関係者の間で実質的に異なるフェアネスの人間の知覚を考慮しない。
FairCeptronフレームワークは、ランキングや分類などのアルゴリズムによる意思決定における公平性の認識を研究するためのアプローチである。
i) 公正性の人間の知覚と、(ii) アルゴリズム的公正性の尺度と比較することを支援する。
このフレームワークは、公正シナリオ生成、公正知覚誘発、公正知覚分析を含む。
マイノリティの存在下での公正さに対する人間の認識を収集する仮説的大学入学文脈に適用することで、FairCeptronフレームワークを実証する。
FairCeptronフレームワークの実装は公開されており、他のアプリケーションコンテキストにおけるアルゴリズム的公正性の認識に容易に適応することができる。
我々は,アルゴリズムによる意思決定システムを設計する過程において,人間の公正感研究の役割を高めるための道を開くことを願っている。
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Understanding Relations Between Perception of Fairness and Trust in
Algorithmic Decision Making [8.795591344648294]
本研究の目的は,人間における帰納的アルゴリズムの公平さと知覚の関係を理解することである。
また,アルゴリズムの公平性が,アルゴリズム決定におけるユーザの信頼にどのように影響するかについても検討する。
論文 参考訳(メタデータ) (2021-09-29T11:00:39Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Fairness Perception from a Network-Centric Perspective [12.261689483681147]
ネットワーク中心の公平感知覚と呼ばれる新しい直感的機能を導入する。
フェアネス可視性として知られる群フェアネス計量に関数をどのように拡張できるかを示す。
アルゴリズムの判断が公正であると認識するために、個人を誤解させるようなフェアネスの可視性尺度の潜在的な落とし穴について説明する。
論文 参考訳(メタデータ) (2020-10-07T06:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。