論文の概要: Bounded Minds, Generative Machines: Envisioning Conversational AI that Works with Human Heuristics and Reduces Bias Risk
- arxiv url: http://arxiv.org/abs/2601.13376v1
- Date: Mon, 19 Jan 2026 20:23:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.051561
- Title: Bounded Minds, Generative Machines: Envisioning Conversational AI that Works with Human Heuristics and Reduces Bias Risk
- Title(参考訳): 境界マインドと生成機械 - 人間のヒューリスティックとバイアスリスクを低減した会話型AIの構想
- Authors: Jiqun Liu,
- Abstract要約: この記事では、合理性に基づく研究経路を概説し、会話型AIは人間に対抗するのではなく、人間と協調するように設計されるべきである、と論じる。
認知的脆弱性の検出、不確実性に基づく判断の支援、事実的正確性を超えた会話システムの評価、意思決定品質と認知的堅牢性に対する重要な方向を特定する。
- 参考スコア(独自算出の注目度): 6.879756503058167
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conversational AI is rapidly becoming a primary interface for information seeking and decision making, yet most systems still assume idealized users. In practice, human reasoning is bounded by limited attention, uneven knowledge, and reliance on heuristics that are adaptive but bias-prone. This article outlines a research pathway grounded in bounded rationality, and argues that conversational AI should be designed to work with human heuristics rather than against them. It identifies key directions for detecting cognitive vulnerability, supporting judgment under uncertainty, and evaluating conversational systems beyond factual accuracy, toward decision quality and cognitive robustness.
- Abstract(参考訳): 会話型AIは情報検索と意思決定の主要なインターフェースになりつつあるが、ほとんどのシステムは依然として理想的なユーザーを前提としている。
実際には、人間の推論は限定的な注意、不均一な知識、そして適応性はあるがバイアスが伴うヒューリスティックに依存している。
本稿は、有界な合理性に基づく研究経路を概説し、会話型AIは人間のヒューリスティックに対抗するのではなく、人間のヒューリスティックに対処するように設計されるべきである、と論じる。
認知的脆弱性の検出、不確実性に基づく判断の支援、事実的正確性を超えた会話システムの評価、意思決定品質と認知的堅牢性に対する重要な方向を特定する。
関連論文リスト
- The AI Cognitive Trojan Horse: How Large Language Models May Bypass Human Epistemic Vigilance [0.0]
大規模言語モデル(LLM)に基づく会話型AIシステムは、人間の認識に挑戦する。
本稿では,会話型AIによる有意なてんかんリスクは,不正確さや意図的な騙しではなく,より根本的なものであることを示唆する。
論文 参考訳(メタデータ) (2026-01-11T22:28:56Z) - On Benchmarking Human-Like Intelligence in Machines [77.55118048492021]
現在のAI評価パラダイムは、人間のような認知能力を評価するには不十分である、と我々は主張する。
人為的なラベルの欠如、人間の反応の多様性と不確実性の表現の不適切な表現、単純で生態学的に無意味なタスクへの依存。
論文 参考訳(メタデータ) (2025-02-27T20:21:36Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Do great minds think alike? Investigating Human-AI Complementarity in Question Answering with CAIMIRA [43.116608441891096]
人間は知識に基づく帰納的、概念的推論においてAIシステムより優れています。
GPT-4やLLaMAのような最先端のLLMは、ターゲット情報検索において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-09T03:53:26Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Human Uncertainty in Concept-Based AI Systems [37.82747673914624]
概念に基づくAIシステムのコンテキストにおける人間の不確実性について検討する。
不確実な概念ラベルによるトレーニングは、概念ベースシステムにおける弱点を軽減するのに役立つ可能性がある。
論文 参考訳(メタデータ) (2023-03-22T19:17:57Z) - BIASeD: Bringing Irrationality into Automated System Design [12.754146668390828]
我々は、人間と機械のコラボレーションの未来は、人間の認知バイアスをモデル化し、理解し、おそらく複製するAIシステムの開発を必要とすると主張している。
我々は、AIシステムの観点から既存の認知バイアスを分類し、3つの幅広い関心領域を特定し、私たちのバイアスをよりよく理解するAIシステムの設計のための研究の方向性を概説する。
論文 参考訳(メタデータ) (2022-10-01T02:52:38Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。