論文の概要: Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies
- arxiv url: http://arxiv.org/abs/2304.07683v2
- Date: Thu, 7 Dec 2023 22:00:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 19:15:53.148844
- Title: Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies
- Title(参考訳): 人工知能の公正性とバイアス:情報源、影響、緩和戦略の簡単な調査
- Authors: Emilio Ferrara
- Abstract要約: この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
- 参考スコア(独自算出の注目度): 11.323961700172175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The significant advancements in applying Artificial Intelligence (AI) to
healthcare decision-making, medical diagnosis, and other domains have
simultaneously raised concerns about the fairness and bias of AI systems. This
is particularly critical in areas like healthcare, employment, criminal
justice, credit scoring, and increasingly, in generative AI models (GenAI) that
produce synthetic media. Such systems can lead to unfair outcomes and
perpetuate existing inequalities, including generative biases that affect the
representation of individuals in synthetic data. This survey paper offers a
succinct, comprehensive overview of fairness and bias in AI, addressing their
sources, impacts, and mitigation strategies. We review sources of bias, such as
data, algorithm, and human decision biases - highlighting the emergent issue of
generative AI bias where models may reproduce and amplify societal stereotypes.
We assess the societal impact of biased AI systems, focusing on the
perpetuation of inequalities and the reinforcement of harmful stereotypes,
especially as generative AI becomes more prevalent in creating content that
influences public perception. We explore various proposed mitigation
strategies, discussing the ethical considerations of their implementation and
emphasizing the need for interdisciplinary collaboration to ensure
effectiveness. Through a systematic literature review spanning multiple
academic disciplines, we present definitions of AI bias and its different
types, including a detailed look at generative AI bias. We discuss the negative
impacts of AI bias on individuals and society and provide an overview of
current approaches to mitigate AI bias, including data pre-processing, model
selection, and post-processing. We emphasize the unique challenges presented by
generative AI models and the importance of strategies specifically tailored to
address these.
- Abstract(参考訳): 人工知能(AI)を医療の意思決定、診断、その他の領域に適用する大きな進歩は、AIシステムの公平性と偏見を同時に懸念している。
これは、医療、雇用、刑事司法、信用スコアリングなどの分野において特に重要であり、さらに、合成メディアを生成する生成AIモデル(GenAI)においても重要である。
このようなシステムは不公平な結果をもたらし、合成データ中の個人の表現に影響を与える生成バイアスを含む既存の不平等を永続させる。
この調査論文は、AIにおける公正さと偏見の簡潔で包括的な概要を提供し、そのソース、影響、緩和戦略に対処する。
データ、アルゴリズム、人間の決定バイアスといったバイアスの源泉をレビューし、モデルが社会的ステレオタイプを再現し増幅する生成AIバイアスの創発的な問題を強調します。
我々は偏りのあるAIシステムの社会的影響を評価し、不平等の不平等の永続性と有害なステレオタイプの強化に焦点を当てた。
我々は,様々な緩和戦略を検討し,その実施の倫理的考察を議論し,効果的性を確保するための学際的連携の必要性を強調する。
複数の学術分野にまたがる体系的な文献レビューを通じて、生成的AIバイアスの詳細な考察を含む、AIバイアスとその種類の定義を示す。
我々は、AIバイアスが個人や社会に与える影響について論じ、データ前処理、モデル選択、後処理を含む、AIバイアスを軽減する現在のアプローチの概要を提供する。
我々は、生成AIモデルによって提示されるユニークな課題と、これらに対処するための戦略の重要性を強調します。
関連論文リスト
- Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - The Pursuit of Fairness in Artificial Intelligence Models: A Survey [2.124791625488617]
この調査は、研究者がAIシステムの公正性を促進する方法の相乗効果を提供する。
AIモデルのバイアスを軽減するために研究者が採用したアプローチとテクニックについて、徹底的な研究がなされている。
また、偏見付きモデルがユーザエクスペリエンスに与える影響や、そのようなモデルの開発とデプロイにおいて考慮すべき倫理的考慮についても調べます。
論文 参考訳(メタデータ) (2024-03-26T02:33:36Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。