論文の概要: AI Fairness: from Principles to Practice
- arxiv url: http://arxiv.org/abs/2207.09833v1
- Date: Wed, 20 Jul 2022 11:37:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:02:37.014910
- Title: AI Fairness: from Principles to Practice
- Title(参考訳): AIフェアネス:原則から実践へ
- Authors: Arash Bateni, Matthew C. Chan, Ray Eitel-Porter
- Abstract要約: 本稿では,AIシステムにおける公平性を追求するための様々なアプローチ,手法,手法を要約し,評価する。
AIのバイアスを定義し、測定し、予防するための実践的なガイドラインを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper summarizes and evaluates various approaches, methods, and
techniques for pursuing fairness in artificial intelligence (AI) systems. It
examines the merits and shortcomings of these measures and proposes practical
guidelines for defining, measuring, and preventing bias in AI. In particular,
it cautions against some of the simplistic, yet common, methods for evaluating
bias in AI systems, and offers more sophisticated and effective alternatives.
The paper also addresses widespread controversies and confusions in the field
by providing a common language among different stakeholders of high-impact AI
systems. It describes various trade-offs involving AI fairness, and provides
practical recommendations for balancing them. It offers techniques for
evaluating the costs and benefits of fairness targets, and defines the role of
human judgment in setting these targets. This paper provides discussions and
guidelines for AI practitioners, organization leaders, and policymakers, as
well as various links to additional materials for a more technical audience.
Numerous real-world examples are provided to clarify the concepts, challenges,
and recommendations from a practical perspective.
- Abstract(参考訳): 本稿では,人工知能(AI)システムにおける公平性を追求するための様々なアプローチ,手法,技術について要約し,評価する。
これらの尺度のメリットと欠点を調べ、AIのバイアスを定義し、測定し、予防するための実践的なガイドラインを提案する。
特に、AIシステムのバイアスを評価するための単純で一般的な方法に注意し、より洗練された効果的な代替手段を提供する。
この論文は、ハイインパクトAIシステムの様々な利害関係者の間で共通言語を提供することによって、この分野における広範な論争と混乱にも対処する。
aiフェアネスに関わるさまざまなトレードオフを記述し、それらのバランスをとるための実践的な推奨を提供する。
公平目標の費用と利益を評価する技術を提供し、これらの目標の設定における人間の判断の役割を定義する。
本稿は、AI実践者、組織リーダー、政策立案者に対する議論とガイドラインと、さらに技術的なオーディエンスのための追加資料へのリンクを提供する。
実践的な視点から概念、課題、推奨を明確にするために、多くの実世界の例が提供されている。
関連論文リスト
- Revisiting Technical Bias Mitigation Strategies [0.11510009152620666]
人工知能(AI)コミュニティにおける偏見を緩和し、公平性を高める努力は、主に技術的な解決策に焦点を当てている。
多くのレビューがAIのバイアスに対処しているが、このレビューは医療設定における技術的ソリューションの実践的限界に特化している。
医療・バイオメディカル応用に焦点をあてた実証的研究により,それぞれの限界について解説する。
論文 参考訳(メタデータ) (2024-10-22T21:17:19Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Domain-Specific Evaluation Strategies for AI in Journalism [3.2566808526538873]
ドメイン固有の調整の恩恵を受けることができるAI評価のさまざまな側面について検討する。
そうすることで、ジャーナリズムにおけるAI評価をガイドする潜在的なフレームワークを構築できる。
論文 参考訳(メタデータ) (2024-03-26T17:47:25Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Expose Uncertainty, Instill Distrust, Avoid Explanations: Towards
Ethical Guidelines for AI [3.0534660670547864]
AI技術を使う人間を助ける最良の方法は、AIアルゴリズムの本質的な限界と問題を認識することだ、と私は主張する。
結果の提示に使用する倫理ガイドラインを3つ提案する。
論文 参考訳(メタデータ) (2021-11-29T14:53:35Z) - Actionable Approaches to Promote Ethical AI in Libraries [7.1492901819376415]
多くの領域で人工知能(AI)が広く使われていることで、多くの倫理的問題が明らかになっている。
現在、意図された、あるいはデプロイされたAIの倫理を計画し、評価し、監査するライブラリのための実践的なガイダンスは存在しない。
我々は、他の文脈から適応可能な倫理的AIを促進するためのいくつかの有望なアプローチについて報告する。
論文 参考訳(メタデータ) (2021-09-20T16:38:49Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Principles to Practices for Responsible AI: Closing the Gap [0.1749935196721634]
インパクトアセスメントフレームワークは、原則と実践のギャップを埋めるための有望なアプローチである、と我々は主張する。
我々は、森林生態系の復元におけるAIの使用に関するケーススタディをレビューし、インパクトアセスメントフレームワークが効果的で責任あるAIプラクティスにどのように変換できるかを実証する。
論文 参考訳(メタデータ) (2020-06-08T16:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。