論文の概要: Bias in Data-driven AI Systems -- An Introductory Survey
- arxiv url: http://arxiv.org/abs/2001.09762v1
- Date: Tue, 14 Jan 2020 09:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 02:15:02.559790
- Title: Bias in Data-driven AI Systems -- An Introductory Survey
- Title(参考訳): データ駆動型AIシステムにおけるバイアス - 入門調査
- Authors: Eirini Ntoutsi, Pavlos Fafalios, Ujwal Gadiraju, Vasileios Iosifidis,
Wolfgang Nejdl, Maria-Esther Vidal, Salvatore Ruggieri, Franco Turini, Symeon
Papadopoulos, Emmanouil Krasanakis, Ioannis Kompatsiaris, Katharina
Kinder-Kurlanda, Claudia Wagner, Fariba Karimi, Miriam Fernandez, Harith
Alani, Bettina Berendt, Tina Kruegel, Christian Heinze, Klaus Broelemann,
Gjergji Kasneci, Thanassis Tiropanis, Steffen Staab
- Abstract要約: この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
- 参考スコア(独自算出の注目度): 37.34717604783343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-based systems are widely employed nowadays to make decisions that have
far-reaching impacts on individuals and society. Their decisions might affect
everyone, everywhere and anytime, entailing concerns about potential human
rights issues. Therefore, it is necessary to move beyond traditional AI
algorithms optimized for predictive performance and embed ethical and legal
principles in their design, training and deployment to ensure social good while
still benefiting from the huge potential of the AI technology. The goal of this
survey is to provide a broad multi-disciplinary overview of the area of bias in
AI systems, focusing on technical challenges and solutions as well as to
suggest new research directions towards approaches well-grounded in a legal
frame. In this survey, we focus on data-driven AI, as a large part of AI is
powered nowadays by (big) data and powerful Machine Learning (ML) algorithms.
If otherwise not specified, we use the general term bias to describe problems
related to the gathering or processing of data that might result in prejudiced
decisions on the bases of demographic features like race, sex, etc.
- Abstract(参考訳): AIベースのシステムは、個人や社会に大きく影響する決定を下すために、近年広く利用されている。
彼らの決定は、あらゆる場所、そしていつでもすべての人に影響を与え、人権問題に対する懸念を抱くかもしれない。
したがって、予測性能に最適化された従来のAIアルゴリズムを超えて、その設計、トレーニング、デプロイメントに倫理的および法的原則を組み込んで、AI技術の巨大なポテンシャルから恩恵を受けながら、社会的に良いことを保証する必要がある。
この調査の目的は、aiシステムにおけるバイアスの分野に関する幅広い分野の概観を提供することであり、技術的な課題と解決策に焦点を当て、法的な枠組みに根ざしたアプローチに向けた新たな研究方向を提案することである。
この調査では、AIの大部分は(大きな)データと強力な機械学習(ML)アルゴリズムによって支えられているため、データ駆動型AIに焦点を当てている。
そうでない場合は、一般的なバイアスを使ってデータの収集や処理に関連する問題を記述します。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - LioNets: A Neural-Specific Local Interpretation Technique Exploiting
Penultimate Layer Information [6.570220157893279]
解釈可能な機械学習(IML)は研究の緊急のトピックである。
本稿では,テキストデータと時系列データに適用される局所的,神経特異的な解釈プロセスに焦点を当てる。
論文 参考訳(メタデータ) (2021-04-13T09:39:33Z) - Data, Power and Bias in Artificial Intelligence [5.124256074746721]
人工知能は社会的偏見を悪化させ、平等な権利と市民の自由における数十年の進歩を取り戻せる可能性がある。
機械学習アルゴリズムの訓練に使用されるデータは、社会で学び、永続する可能性のある社会的不正、不平等、差別的な態度を捉えることができる。
本稿では、異なるドメインからのAIシステムにおけるデータの公正性、公平性、バイアス軽減を保証するための継続的な作業についてレビューする。
論文 参考訳(メタデータ) (2020-07-28T16:17:40Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。