論文の概要: Designing Fair AI for Managing Employees in Organizations: A Review,
Critique, and Design Agenda
- arxiv url: http://arxiv.org/abs/2002.09054v1
- Date: Thu, 20 Feb 2020 22:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 07:17:11.942668
- Title: Designing Fair AI for Managing Employees in Organizations: A Review,
Critique, and Design Agenda
- Title(参考訳): 組織における従業員管理のための公正なAIの設計: レビュー、批評、設計のアジェンダ
- Authors: Lionel P. Robert, Casey Pierce, Liz Morris, Sangmi Kim, Rasha Alahmad
- Abstract要約: 労働者に対する不公平さは、労働者の努力の減少と労働者の転職の増加と関連している。
AIの不公平に関する関心にもかかわらず、デザインアジェンダを開発するための理論的かつ体系的なアプローチは存在していない。
- 参考スコア(独自算出の注目度): 2.930891463766348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organizations are rapidly deploying artificial intelligence (AI) systems to
manage their workers. However, AI has been found at times to be unfair to
workers. Unfairness toward workers has been associated with decreased worker
effort and increased worker turnover. To avoid such problems, AI systems must
be designed to support fairness and redress instances of unfairness. Despite
the attention related to AI unfairness, there has not been a theoretical and
systematic approach to developing a design agenda. This paper addresses the
issue in three ways. First, we introduce the organizational justice theory,
three different fairness types (distributive, procedural, interactional), and
the frameworks for redressing instances of unfairness (retributive justice,
restorative justice). Second, we review the design literature that specifically
focuses on issues of AI fairness in organizations. Third, we propose a design
agenda for AI fairness in organizations that applies each of the fairness types
to organizational scenarios. Then, the paper concludes with implications for
future research.
- Abstract(参考訳): 組織は、労働者を管理するために人工知能(AI)システムを迅速に展開している。
しかし、AIは労働者に不公平であることが時々見出されている。
労働者に対する不公平さは、労働者の努力の減少と労働者の転職の増加と関連している。
このような問題を避けるために、aiシステムは公平性をサポートし、不公平な事例に対処できるように設計されなければならない。
aiの不公平に関する注意にもかかわらず、デザインアジェンダを開発するための理論的かつ体系的なアプローチは存在していない。
本稿ではその問題を3つの方法で解決する。
まず, 組織正義論, 3つの異なる公正タイプ(分配的, 手続き的, 相互作用的), そして不公平な事例(帰属的正義, 再帰的正義)の枠組みを紹介する。
第2に、組織におけるAIフェアネスの問題に焦点を当てたデザイン文献についてレビューする。
第3に,組織におけるAIフェアネスに関するデザインアジェンダを提案し,それぞれのフェアネスタイプを組織シナリオに適用する。
そして、論文は将来の研究への示唆で締めくくられる。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - AI Fairness in Practice [0.46671368497079174]
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
論文 参考訳(メタデータ) (2024-02-19T23:02:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Seven-Layer Model for Standardising AI Fairness Assessment [0.5076419064097732]
AIシステムは、開始から使用まで、ライフサイクルのあらゆる段階でバイアスを起こしやすいことを詳しく説明します。
オープンシステム相互接続(OSI)モデルにインスパイアされた,AIフェアネスハンドリングの標準化を目的とした,新しい7層モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T17:28:07Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - A Framework for Fairer Machine Learning in Organizations [0.0]
社会経済的重要性の結果における人間の意思決定プロセスが自動化された場合、不公平なリスクが増大する。
我々は、不公平な機械学習の源泉を明らかにし、公正性基準をレビューし、もし実施されれば、組織が不公平な機械学習モデルを実装するのを回避できるフレームワークを提供する。
論文 参考訳(メタデータ) (2020-09-10T04:07:10Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。