論文の概要: Fairness Perception from a Network-Centric Perspective
- arxiv url: http://arxiv.org/abs/2010.05887v1
- Date: Wed, 7 Oct 2020 06:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 23:55:42.337332
- Title: Fairness Perception from a Network-Centric Perspective
- Title(参考訳): ネットワーク中心から見た公正感
- Authors: Farzan Masrour, Pang-Ning Tan, Abdol-Hossein Esfahanian
- Abstract要約: ネットワーク中心の公平感知覚と呼ばれる新しい直感的機能を導入する。
フェアネス可視性として知られる群フェアネス計量に関数をどのように拡張できるかを示す。
アルゴリズムの判断が公正であると認識するために、個人を誤解させるようなフェアネスの可視性尺度の潜在的な落とし穴について説明する。
- 参考スコア(独自算出の注目度): 12.261689483681147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic fairness is a major concern in recent years as the influence of
machine learning algorithms becomes more widespread. In this paper, we
investigate the issue of algorithmic fairness from a network-centric
perspective. Specifically, we introduce a novel yet intuitive function known as
network-centric fairness perception and provide an axiomatic approach to
analyze its properties. Using a peer-review network as case study, we also
examine its utility in terms of assessing the perception of fairness in paper
acceptance decisions. We show how the function can be extended to a group
fairness metric known as fairness visibility and demonstrate its relationship
to demographic parity. We also illustrate a potential pitfall of the fairness
visibility measure that can be exploited to mislead individuals into perceiving
that the algorithmic decisions are fair. We demonstrate how the problem can be
alleviated by increasing the local neighborhood size of the fairness perception
function.
- Abstract(参考訳): 近年、機械学習アルゴリズムの影響が広まるにつれて、アルゴリズムの公平性が大きな関心事となっている。
本稿では,ネットワーク中心の観点からアルゴリズムフェアネスの問題を検討する。
具体的には,ネットワーク中心のフェアネス知覚と呼ばれる新しい直感的な関数を導入し,その特性を分析するための公理的アプローチを提案する。
ピアレビューネットワークをケーススタディとして用い,紙受理決定における公平さの知覚を評価する上での有用性についても検討する。
この関数をフェアネス可視性(fairness visibility)として知られる集団的フェアネス計量に拡張する方法を示し、人口統計学的パリティとの関係を実証する。
また,公平性の可視性尺度(fairness visibility measure)の潜在的な落とし穴を説明し,アルゴリズム的決定が公平であることを示す。
フェアネス知覚関数の局所的近傍サイズを増大させることにより,問題を緩和できることを示す。
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Relations Between Perception of Fairness and Trust in
Algorithmic Decision Making [8.795591344648294]
本研究の目的は,人間における帰納的アルゴリズムの公平さと知覚の関係を理解することである。
また,アルゴリズムの公平性が,アルゴリズム決定におけるユーザの信頼にどのように影響するかについても検討する。
論文 参考訳(メタデータ) (2021-09-29T11:00:39Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - The FairCeptron: A Framework for Measuring Human Perceptions of
Algorithmic Fairness [1.4449464910072918]
FairCeptronフレームワークは、ランク付けや分類のようなアルゴリズムによる意思決定における公平さの知覚を研究するためのアプローチである。
このフレームワークは、公正シナリオ生成、公正知覚誘発、公正知覚分析を含む。
FairCeptronフレームワークの実装は公開されており、他のアプリケーションコンテキストにおけるアルゴリズム的公正性の認識に容易に適応することができる。
論文 参考訳(メタデータ) (2021-02-08T10:47:24Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。