論文の概要: Understanding Relations Between Perception of Fairness and Trust in
Algorithmic Decision Making
- arxiv url: http://arxiv.org/abs/2109.14345v1
- Date: Wed, 29 Sep 2021 11:00:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 05:20:28.085974
- Title: Understanding Relations Between Perception of Fairness and Trust in
Algorithmic Decision Making
- Title(参考訳): アルゴリズムによる意思決定における公正感と信頼の関係の理解
- Authors: Jianlong Zhou, Sunny Verma, Mudit Mittal and Fang Chen
- Abstract要約: 本研究の目的は,人間における帰納的アルゴリズムの公平さと知覚の関係を理解することである。
また,アルゴリズムの公平性が,アルゴリズム決定におけるユーザの信頼にどのように影響するかについても検討する。
- 参考スコア(独自算出の注目度): 8.795591344648294
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Algorithmic processes are increasingly employed to perform managerial
decision making, especially after the tremendous success in Artificial
Intelligence (AI). This paradigm shift is occurring because these sophisticated
AI techniques are guaranteeing the optimality of performance metrics. However,
this adoption is currently under scrutiny due to various concerns such as
fairness, and how does the fairness of an AI algorithm affects user's trust is
much legitimate to pursue. In this regard, we aim to understand the
relationship between induced algorithmic fairness and its perception in humans.
In particular, we are interested in whether these two are positively correlated
and reflect substantive fairness. Furthermore, we also study how does induced
algorithmic fairness affects user trust in algorithmic decision making. To
understand this, we perform a user study to simulate candidate shortlisting by
introduced (manipulating mathematical) fairness in a human resource recruitment
setting. Our experimental results demonstrate that different levels of
introduced fairness are positively related to human perception of fairness, and
simultaneously it is also positively related to user trust in algorithmic
decision making. Interestingly, we also found that users are more sensitive to
the higher levels of introduced fairness than the lower levels of introduced
fairness. Besides, we summarize the theoretical and practical implications of
this research with a discussion on perception of fairness.
- Abstract(参考訳): アルゴリズムのプロセスは、特に人工知能(AI)の大成功の後、管理上の意思決定を行うためにますます使われています。
これらの高度なAI技術は、パフォーマンスメトリクスの最適性を保証するため、このパラダイムシフトが発生している。
しかしながら、この採用は現在、公正性などのさまざまな懸念から精査されており、AIアルゴリズムの公正さがユーザの信頼にどのように影響するかは、追求する上で極めて正当である。
本研究では,人間のアルゴリズム的公平性とその知覚との関係を理解することを目的とする。
特に、これらの2つが正に相関し、実質的公正性を反映しているかどうかに興味がある。
さらに,アルゴリズムの公平性がユーザの信頼にどのように影響するかについても検討した。
これを理解するために,人材募集設定に導入する(数学的)公平性によって,候補のショートリストをシミュレートするユーザスタディを行う。
実験の結果,導入公正度は人的公正感と正の相関を示し,同時にアルゴリズムによる意思決定におけるユーザの信頼と正の相関を示した。
興味深いことに、ユーザーは導入されたフェアネスのレベルよりも、導入されたフェアネスのレベルに敏感であることが分かりました。
さらに,本研究の理論的および実践的意味を,公正感の認知に関する議論で要約する。
関連論文リスト
- Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - The FairCeptron: A Framework for Measuring Human Perceptions of
Algorithmic Fairness [1.4449464910072918]
FairCeptronフレームワークは、ランク付けや分類のようなアルゴリズムによる意思決定における公平さの知覚を研究するためのアプローチである。
このフレームワークは、公正シナリオ生成、公正知覚誘発、公正知覚分析を含む。
FairCeptronフレームワークの実装は公開されており、他のアプリケーションコンテキストにおけるアルゴリズム的公正性の認識に容易に適応することができる。
論文 参考訳(メタデータ) (2021-02-08T10:47:24Z) - Fairness Perception from a Network-Centric Perspective [12.261689483681147]
ネットワーク中心の公平感知覚と呼ばれる新しい直感的機能を導入する。
フェアネス可視性として知られる群フェアネス計量に関数をどのように拡張できるかを示す。
アルゴリズムの判断が公正であると認識するために、個人を誤解させるようなフェアネスの可視性尺度の潜在的な落とし穴について説明する。
論文 参考訳(メタデータ) (2020-10-07T06:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。