論文の概要: Data, Power and Bias in Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2008.07341v1
- Date: Tue, 28 Jul 2020 16:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 22:59:50.637348
- Title: Data, Power and Bias in Artificial Intelligence
- Title(参考訳): 人工知能におけるデータ、パワー、バイアス
- Authors: Susan Leavy, Barry O'Sullivan, Eugenia Siapera
- Abstract要約: 人工知能は社会的偏見を悪化させ、平等な権利と市民の自由における数十年の進歩を取り戻せる可能性がある。
機械学習アルゴリズムの訓練に使用されるデータは、社会で学び、永続する可能性のある社会的不正、不平等、差別的な態度を捉えることができる。
本稿では、異なるドメインからのAIシステムにおけるデータの公正性、公平性、バイアス軽減を保証するための継続的な作業についてレビューする。
- 参考スコア(独自算出の注目度): 5.124256074746721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence has the potential to exacerbate societal bias and set
back decades of advances in equal rights and civil liberty. Data used to train
machine learning algorithms may capture social injustices, inequality or
discriminatory attitudes that may be learned and perpetuated in society.
Attempts to address this issue are rapidly emerging from different perspectives
involving technical solutions, social justice and data governance measures.
While each of these approaches are essential to the development of a
comprehensive solution, often discourse associated with each seems disparate.
This paper reviews ongoing work to ensure data justice, fairness and bias
mitigation in AI systems from different domains exploring the interrelated
dynamics of each and examining whether the inevitability of bias in AI training
data may in fact be used for social good. We highlight the complexity
associated with defining policies for dealing with bias. We also consider
technical challenges in addressing issues of societal bias.
- Abstract(参考訳): 人工知能は社会的な偏見を悪化させ、平等な権利と市民の自由の何十年もの進歩をもたらした。
機械学習アルゴリズムのトレーニングに使用されるデータは、社会で学習され、持続される社会的不正、不平等、差別的態度を捉えることができる。
この問題に対処しようとする試みは、技術的ソリューション、社会正義、データガバナンスの措置を含むさまざまな観点から急速に現れています。
これらのアプローチは、包括的なソリューションの開発に不可欠であるが、それぞれに関連する議論はしばしば異なって見える。
本稿では、異なる分野のaiシステムにおけるデータの公正性、公平性、バイアス緩和の確保に向けた取り組みをレビューし、aiトレーニングデータにおけるバイアスの必然性が実際に社会の利益に利用できるかどうかを検討する。
偏見に対処するポリシーの定義に関連する複雑さを強調します。
また,社会バイアス問題に対する技術的課題についても考察する。
関連論文リスト
- Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z) - Conservative AI and social inequality: Conceptualizing alternatives to
bias through social theory [0.0]
社会的な問題は、これらのシステムが人間の生活に与える影響を考えると、もはやAIと機械学習の範囲外にはならない。
保守主義(Conservatism)とは、現状を再現し、強化する支配的な傾向のことであり、急進的なアプローチは、制度的な不平等を乱すために働く。
これは、不平等を永続する構造化された方法を分析するために偏見のあるデータを超えた、AI奨学金の増大組織との関わりを必要とする。
論文 参考訳(メタデータ) (2020-07-16T21:52:13Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。