論文の概要: The Quasi-Creature and the Uncanny Valley of Agency: A Synthesis of Theory and Evidence on User Interaction with Inconsistent Generative AI
- arxiv url: http://arxiv.org/abs/2508.18563v1
- Date: Mon, 25 Aug 2025 23:43:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.628003
- Title: The Quasi-Creature and the Uncanny Valley of Agency: A Synthesis of Theory and Evidence on User Interaction with Inconsistent Generative AI
- Title(参考訳): 準クリーチャーと不気味な機関の谷--一貫性のない生成AIとのユーザインタラクションに関する理論とエビデンスの理論とエビデンス
- Authors: Mauricio Manhaes, Christine Miller, Nicholas Schroeder,
- Abstract要約: 大規模な生成AIを使ったユーザエクスペリエンスは、パラドックス的です。
本論では, インテリジェンスを模擬した「Quasi-Creature」から起因した, 強力なフラストレーションは存在論的問題であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The user experience with large-scale generative AI is paradoxical: superhuman fluency meets absurd failures in common sense and consistency. This paper argues that the resulting potent frustration is an ontological problem, stemming from the "Quasi-Creature"-an entity simulating intelligence without embodiment or genuine understanding. Interaction with this entity precipitates the "Uncanny Valley of Agency," a framework where user comfort drops when highly agentic AI proves erratically unreliable. Its failures are perceived as cognitive breaches, causing profound cognitive dissonance. Synthesizing HCI, cognitive science, and philosophy of technology, this paper defines the Quasi-Creature and details the Uncanny Valley of Agency. An illustrative mixed-methods study ("Move 78," N=37) of a collaborative creative task reveals a powerful negative correlation between perceived AI efficiency and user frustration, central to the negative experience. This framework robustly explains user frustration with generative AI and has significant implications for the design, ethics, and societal integration of these powerful, alien technologies.
- Abstract(参考訳): 大規模な生成AIを使ったユーザエクスペリエンスは、パラドックス的です。
本論では, インテリジェンスを模擬した「Quasi-Creature」から起因した, 強力なフラストレーションは存在論的問題であると主張している。
このエンティティとのインタラクションは、“Uncanny Valley of Agency”という,高エージェントAIが不確実な信頼性を証明した時にユーザの快適さが低下するフレームワークを発生させる。
その失敗は認知障害と認識され、深い認知不協和を引き起こす。
本論文は,HCI,認知科学,技術哲学を合成し,準Creatureを定義し,Uncanny Valley of Agencyについて詳述する。
協調的創造的タスクの実証的な混合メソッド研究("Move 78", N=37")は、認識されたAI効率とユーザのフラストレーションの間に強力な負の相関が示され、ネガティブな経験の中心となっている。
このフレームワークは、生成的AIに対するユーザのフラストレーションを強く説明し、これらの強力な異星人テクノロジの設計、倫理、社会的な統合に重大な影響を与える。
関連論文リスト
- Feeling Guilty Being a c(ai)borg: Navigating the Tensions Between Guilt and Empowerment in AI Use [7.0825752078233615]
本稿では,AIによる人間の拡張現実である「c(ai)borg」として,罪悪感の概念を探求する。
c(ai)borgのビジョンは、AIがオープンに共同パートナーとして受け入れられる未来を提唱している。
論文 参考訳(メタデータ) (2025-05-30T10:33:04Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Problem Solving Through Human-AI Preference-Based Cooperation [74.39233146428492]
我々は,人間-AI共同構築フレームワークであるHAICo2を提案する。
我々は、HAICo2の形式化に向けて第一歩を踏み出し、それが直面する困難なオープンリサーチ問題について議論する。
論文 参考訳(メタデータ) (2024-08-14T11:06:57Z) - Deception Analysis with Artificial Intelligence: An Interdisciplinary Perspective [0.9790236766474198]
私たちは、欺くAIに関するタイムリーで意味のある学際的な視点を構築します。
DAMAS - 社会認知モデル作成のための総合的多エージェントシステムフレームワークで, 詐欺の分析を行う。
本稿では,コンピュータサイエンス,哲学,心理学,倫理,インテリジェンス・アナリティクスの観点から,AIアプローチによる騙しのモデル化と説明について述べる。
論文 参考訳(メタデータ) (2024-06-09T10:31:26Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。