論文の概要: BIASeD: Bringing Irrationality into Automated System Design
- arxiv url: http://arxiv.org/abs/2210.01122v1
- Date: Sat, 1 Oct 2022 02:52:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 14:59:26.867259
- Title: BIASeD: Bringing Irrationality into Automated System Design
- Title(参考訳): BIASeD: 自動システム設計に不合理性をもたらす
- Authors: Aditya Gulati, Miguel Angel Lozano, Bruno Lepri, Nuria Oliver
- Abstract要約: 我々は、人間と機械のコラボレーションの未来は、人間の認知バイアスをモデル化し、理解し、おそらく複製するAIシステムの開発を必要とすると主張している。
我々は、AIシステムの観点から既存の認知バイアスを分類し、3つの幅広い関心領域を特定し、私たちのバイアスをよりよく理解するAIシステムの設計のための研究の方向性を概説する。
- 参考スコア(独自算出の注目度): 6.392607347486799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human perception, memory and decision-making are impacted by tens of
cognitive biases and heuristics that influence our actions and decisions.
Despite the pervasiveness of such biases, they are generally not leveraged by
today's Artificial Intelligence (AI) systems that model human behavior and
interact with humans. In this theoretical paper, we claim that the future of
human-machine collaboration will entail the development of AI systems that
model, understand and possibly replicate human cognitive biases. We propose the
need for a research agenda on the interplay between human cognitive biases and
Artificial Intelligence. We categorize existing cognitive biases from the
perspective of AI systems, identify three broad areas of interest and outline
research directions for the design of AI systems that have a better
understanding of our own biases.
- Abstract(参考訳): 人間の知覚、記憶、意思決定は、行動や決定に影響を与える数十の認知バイアスとヒューリスティックの影響を受けます。
このようなバイアスの広がりにもかかわらず、それらは一般に人間の行動をモデル化し人間と対話する今日の人工知能(ai)システムでは利用されない。
本稿では、人間と機械の協調の未来には、人間の認知バイアスをモデル化し、理解し、再現するaiシステムの開発が伴うと主張する。
我々は、人間の認知バイアスと人工知能の相互作用に関する研究課題の必要性を提案する。
我々は、AIシステムの観点から既存の認知バイアスを分類し、3つの幅広い関心領域を特定し、私たちのバイアスをよりよく理解するAIシステムの設計のための研究の方向性を概説する。
関連論文リスト
- Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain [0.7770029179741429]
説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
論文 参考訳(メタデータ) (2024-02-07T14:09:11Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Consciousness in Artificial Intelligence: Insights from the Science of
Consciousness [31.991243430962054]
このレポートは、AI意識に対する厳密で実証的なアプローチを主張し、実証している。
我々は、反復処理理論、グローバルワークスペース理論、高次理論、予測処理、注意スキーマ理論など、意識に関するいくつかの顕著な科学的理論を調査した。
我々の分析は、現在のAIシステムは意識していないことを示唆しているが、これらの指標を満たすAIシステムを構築するための明らかな技術的障壁はないことを示唆している。
論文 参考訳(メタデータ) (2023-08-17T00:10:16Z) - Reflective Hybrid Intelligence for Meaningful Human Control in
Decision-Support Systems [4.1454448964078585]
本稿では,AIシステムに対する有意義な人間制御のための自己表現型AIシステムの概念を紹介する。
心理学と哲学の知識を形式的推論手法や機械学習アプローチと統合する枠組みを提案する。
我々は、自己反射型AIシステムは、自己反射型ハイブリッドシステム(人間+AI)に繋がると主張している。
論文 参考訳(メタデータ) (2023-07-12T13:32:24Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - World Models and Predictive Coding for Cognitive and Developmental
Robotics: Frontiers and Challenges [51.92834011423463]
我々は世界モデルと予測符号化の2つの概念に焦点を当てる。
神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。
論文 参考訳(メタデータ) (2023-01-14T06:38:14Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。