論文の概要: Algorithmic Fairness in Business Analytics: Directions for Research and
Practice
- arxiv url: http://arxiv.org/abs/2207.10991v1
- Date: Fri, 22 Jul 2022 10:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 12:58:07.392251
- Title: Algorithmic Fairness in Business Analytics: Directions for Research and
Practice
- Title(参考訳): ビジネス分析におけるアルゴリズムフェアネス:研究と実践の方向性
- Authors: Maria De-Arteaga and Stefan Feuerriegel and Maytal Saar-Tsechansky
- Abstract要約: 本稿では,アルゴリズムフェアネスの先見的,BAに着目したレビューを行う。
まず、バイアスの源泉と測定方法、およびバイアス緩和アルゴリズムに関する最先端の研究について概説する。
次に、ユーティリティ・フェアネスの関係について詳細な議論を行い、これらの2つの構成要素間のトレードオフの頻繁な仮定は、しばしば間違いまたは近視的であることを強調した。
- 参考スコア(独自算出の注目度): 24.309795052068388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The extensive adoption of business analytics (BA) has brought financial gains
and increased efficiencies. However, these advances have simultaneously drawn
attention to rising legal and ethical challenges when BA inform decisions with
fairness implications. As a response to these concerns, the emerging study of
algorithmic fairness deals with algorithmic outputs that may result in
disparate outcomes or other forms of injustices for subgroups of the
population, especially those who have been historically marginalized. Fairness
is relevant on the basis of legal compliance, social responsibility, and
utility; if not adequately and systematically addressed, unfair BA systems may
lead to societal harms and may also threaten an organization's own survival,
its competitiveness, and overall performance. This paper offers a
forward-looking, BA-focused review of algorithmic fairness. We first review the
state-of-the-art research on sources and measures of bias, as well as bias
mitigation algorithms. We then provide a detailed discussion of the
utility-fairness relationship, emphasizing that the frequent assumption of a
trade-off between these two constructs is often mistaken or short-sighted.
Finally, we chart a path forward by identifying opportunities for business
scholars to address impactful, open challenges that are key to the effective
and responsible deployment of BA.
- Abstract(参考訳): ビジネス分析(BA)の広範な採用は、財政的な利益と効率の向上をもたらした。
しかし、これらの進歩は、BAが公正性に影響を及ぼす決定を下すと、法的および倫理的課題の増大に同時に注意を向けている。
これらの懸念に応えて、アルゴリズム的公正性の新たな研究は、集団のサブグループ、特に歴史的に疎外された集団に対して異なる結果または他の形の不正をもたらす可能性のあるアルゴリズム的アウトプットを扱う。
公正性は法的コンプライアンス、社会的責任、実用性に基づいて関連しており、適切に体系的に対処されていない場合、不公平なbaシステムは社会的な損害をもたらし、組織の生存、競争性、全体的なパフォーマンスを脅かす可能性がある。
本稿では,アルゴリズムフェアネスの先見的,BAに着目したレビューを行う。
まず,バイアスの源泉と測定値,およびバイアス緩和アルゴリズムに関する最先端の研究を概観する。
次に、ユーティリティ・フェアネスの関係について詳細な議論を行い、これらの2つの構成要素間のトレードオフの頻繁な仮定は、しばしば間違いまたは近視的であることを強調した。
最後に、BAの効果的かつ責任ある展開の鍵となる、インパクトのあるオープンな課題に対処するビジネス学者の機会を特定することによって、前進の道を示す。
関連論文リスト
- Fairness in Algorithmic Recourse Through the Lens of Substantive
Equality of Opportunity [15.78130132380848]
アルゴリズムによる会話は、AIシステムとのインタラクションにおいて人に対してエージェンシーを与える手段として注目を集めている。
近年の研究では、個人の初期状況の違いにより、会話自体が不公平である可能性があることが示されている。
個人が行動するのに時間がかかるほど、設定が変更される可能性があるからだ。
論文 参考訳(メタデータ) (2024-01-29T11:55:45Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness
Criteria in Machine Learning and Law [0.6824747267214372]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Justice in Misinformation Detection Systems: An Analysis of Algorithms,
Stakeholders, and Potential Harms [2.5372245630249632]
誤情報検出パイプラインにおける3つのアルゴリズム段階の利害関係者に対して、不正がいかに有効であるかを示す。
この枠組みは、研究者、政策立案者、そして実践者がアルゴリズムの誤情報検出に関連する潜在的な害やリスクを判断するのに役立つだろう。
論文 参考訳(メタデータ) (2022-04-28T15:31:13Z) - Unfairness Despite Awareness: Group-Fair Classification with Strategic
Agents [37.31138342300617]
戦略エージェントは、より良好な結果を得るために観察された特徴ベクトルを操作する能力とインセンティブの両方を持っている可能性があることを示す。
さらに、有利な群が過剰に表現される領域で公平な学習を行う際に、公平な分類器の選択性が増大し、したがって公正さが失われることが示される。
論文 参考訳(メタデータ) (2021-12-06T02:42:43Z) - BeFair: Addressing Fairness in the Banking Sector [54.08949958349055]
銀行セクターにおける産業的オープンイノベーションプロジェクトの最初の成果を提示する。
本稿では,MLの公平性に関する一般的なロードマップと,バイアスの特定と緩和を支援するBeFairと呼ばれるツールキットの実装を提案する。
論文 参考訳(メタデータ) (2021-02-03T16:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。