論文の概要: Pseudo AI Bias
- arxiv url: http://arxiv.org/abs/2210.08141v1
- Date: Fri, 14 Oct 2022 22:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:42:26.431528
- Title: Pseudo AI Bias
- Title(参考訳): Pseudo AIのバイアス
- Authors: Xiaoming Zhai, Joseph Krajcik
- Abstract要約: Pseudo Artificial Intelligence bias (PAIB) は文学において広く普及している。
誤解、疑似機械的偏見、アルゴリズム予測の過剰な発見によるPAIBは社会的に有害である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pseudo Artificial Intelligence bias (PAIB) is broadly disseminated in the
literature, which can result in unnecessary AI fear in society, exacerbate the
enduring inequities and disparities in access to and sharing the benefits of AI
applications, and waste social capital invested in AI research. This study
systematically reviews publications in the literature to present three types of
PAIBs identified due to: a) misunderstandings, b) pseudo mechanical bias, and
c) over-expectations. We discussed the consequences of and solutions to PAIBs,
including certifying users for AI applications to mitigate AI fears, providing
customized user guidance for AI applications, and developing systematic
approaches to monitor bias. We concluded that PAIB due to misunderstandings,
pseudo mechanical bias, and over-expectations of algorithmic predictions is
socially harmful.
- Abstract(参考訳): Pseudo Artificial Intelligence bias (PAIB) は、社会における不必要なAIの恐れを生じさせ、AIアプリケーションの利点にアクセスし、共有する際の永続的な不平等と格差を悪化させ、AI研究に投資する社会的資本を無駄にする文学において広く普及している。
本研究は,文献中の出版物を体系的にレビューし,以下の3種類のpaibを提示する。
a)誤解
b) 擬似機械バイアス,及び
c) 過剰な期待。
我々は、AIの恐怖を軽減するためにAIアプリケーションのユーザを認定すること、AIアプリケーションのカスタマイズされたユーザーガイダンスを提供すること、バイアスを監視するための体系的なアプローチの開発など、PAIBの結果と解決策について議論した。
我々は,誤解,疑似機械バイアス,アルゴリズム予測の過度な発見によるPAIBは社会的に有害であると結論付けた。
関連論文リスト
- Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Is AI Changing the Rules of Academic Misconduct? An In-depth Look at
Students' Perceptions of 'AI-giarism' [0.0]
本研究は,AIと盗作を包含する学問的不正行為の創発的形態である,AI-giarismに対する学生の認識を探求する。
この発見は、AIコンテンツ生成に対する明確な不承認を伴う、複雑な理解の風景を描いている。
この研究は、学術、政策立案、そして教育におけるAI技術のより広範な統合に関する重要な洞察を提供する。
論文 参考訳(メタデータ) (2023-06-06T02:22:08Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。