論文の概要: Designing Fair AI for Managing Employees in Organizations: A Review,
Critique, and Design Agenda
- arxiv url: http://arxiv.org/abs/2002.09054v1
- Date: Thu, 20 Feb 2020 22:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 07:17:11.942668
- Title: Designing Fair AI for Managing Employees in Organizations: A Review,
Critique, and Design Agenda
- Title(参考訳): 組織における従業員管理のための公正なAIの設計: レビュー、批評、設計のアジェンダ
- Authors: Lionel P. Robert, Casey Pierce, Liz Morris, Sangmi Kim, Rasha Alahmad
- Abstract要約: 労働者に対する不公平さは、労働者の努力の減少と労働者の転職の増加と関連している。
AIの不公平に関する関心にもかかわらず、デザインアジェンダを開発するための理論的かつ体系的なアプローチは存在していない。
- 参考スコア(独自算出の注目度): 2.930891463766348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organizations are rapidly deploying artificial intelligence (AI) systems to
manage their workers. However, AI has been found at times to be unfair to
workers. Unfairness toward workers has been associated with decreased worker
effort and increased worker turnover. To avoid such problems, AI systems must
be designed to support fairness and redress instances of unfairness. Despite
the attention related to AI unfairness, there has not been a theoretical and
systematic approach to developing a design agenda. This paper addresses the
issue in three ways. First, we introduce the organizational justice theory,
three different fairness types (distributive, procedural, interactional), and
the frameworks for redressing instances of unfairness (retributive justice,
restorative justice). Second, we review the design literature that specifically
focuses on issues of AI fairness in organizations. Third, we propose a design
agenda for AI fairness in organizations that applies each of the fairness types
to organizational scenarios. Then, the paper concludes with implications for
future research.
- Abstract(参考訳): 組織は、労働者を管理するために人工知能(AI)システムを迅速に展開している。
しかし、AIは労働者に不公平であることが時々見出されている。
労働者に対する不公平さは、労働者の努力の減少と労働者の転職の増加と関連している。
このような問題を避けるために、aiシステムは公平性をサポートし、不公平な事例に対処できるように設計されなければならない。
aiの不公平に関する注意にもかかわらず、デザインアジェンダを開発するための理論的かつ体系的なアプローチは存在していない。
本稿ではその問題を3つの方法で解決する。
まず, 組織正義論, 3つの異なる公正タイプ(分配的, 手続き的, 相互作用的), そして不公平な事例(帰属的正義, 再帰的正義)の枠組みを紹介する。
第2に、組織におけるAIフェアネスの問題に焦点を当てたデザイン文献についてレビューする。
第3に,組織におけるAIフェアネスに関するデザインアジェンダを提案し,それぞれのフェアネスタイプを組織シナリオに適用する。
そして、論文は将来の研究への示唆で締めくくられる。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Disentangling and Operationalizing AI Fairness at LinkedIn [1.988517863110014]
本稿では、LinkedInのAIフェアネスフレームワークの同等のAI処理コンポーネントに焦点を当てる。
サポートする原則を共有し、ケーススタディを通じてアプリケーションを説明する。
この論文は、AIフェアネスを大規模に運用するためのアプローチを共有するために、他の大手テック企業も参加することを願っている。
論文 参考訳(メタデータ) (2023-05-30T23:58:33Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Can Fairness be Automated? Guidelines and Opportunities for
Fairness-aware AutoML [52.86328317233883]
本報告では、公平性に関連する害が発生する様々な方法の概要を概説する。
この方向に進むためには、いくつかのオープンな技術的課題を強調します。
論文 参考訳(メタデータ) (2023-03-15T09:40:08Z) - A Seven-Layer Model for Standardising AI Fairness Assessment [0.5076419064097732]
AIシステムは、開始から使用まで、ライフサイクルのあらゆる段階でバイアスを起こしやすいことを詳しく説明します。
オープンシステム相互接続(OSI)モデルにインスパイアされた,AIフェアネスハンドリングの標準化を目的とした,新しい7層モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T17:28:07Z) - Inherent Limitations of AI Fairness [16.588468396705366]
AIフェアネスの研究は、コンピュータ科学、社会科学、法学、哲学と結びついた豊富な研究分野へと急速に発展してきた。
AIフェアネスの測定と達成のための多くの技術的ソリューションが提案されているが、そのアプローチは近年、誤解を招く、非現実的で有害であるとして批判されている。
論文 参考訳(メタデータ) (2022-12-13T11:23:24Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - A Framework for Fairer Machine Learning in Organizations [0.0]
社会経済的重要性の結果における人間の意思決定プロセスが自動化された場合、不公平なリスクが増大する。
我々は、不公平な機械学習の源泉を明らかにし、公正性基準をレビューし、もし実施されれば、組織が不公平な機械学習モデルを実装するのを回避できるフレームワークを提供する。
論文 参考訳(メタデータ) (2020-09-10T04:07:10Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。