論文の概要: AI Phenomenology for Understanding Human-AI Experiences Across Eras
- arxiv url: http://arxiv.org/abs/2603.09020v1
- Date: Mon, 09 Mar 2026 23:26:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.895585
- Title: AI Phenomenology for Understanding Human-AI Experiences Across Eras
- Title(参考訳): 人類のAI経験を理解するためのAI現象学
- Authors: Bhada Yun, Evgenia Taranova, Dana Feng, Renn Su, April Yi Wang,
- Abstract要約: AI現象学とは、AIシステムと対話する際に「どう感じたか?」と問う研究スタンスである。
私たちはAI現象学を、ユーザーとAIシステム間のアライメントの体験、交渉、更新を捉えるフレームワークとして動機付けています。
- 参考スコア(独自算出の注目度): 8.54750896635797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is no 'ordinary' when it comes to AI. The human-AI experience is extraordinarily complex and specific to each person, yet dominant measures such as usability scales and engagement metrics flatten away nuance. We argue for AI phenomenology: a research stance that asks "How did it feel?" beyond the standard questions of "How well did it perform?" when interacting with AI systems. AI phenomenology acts as a paradigm for bidirectional human-AI alignment as it foregrounds users' first-person perceptions and interpretations of AI systems over time. We motivate AI phenomenology as a framework that captures how alignment is experienced, negotiated, and updated between users and AI systems. Tracing a lineage from Husserl through postphenomenology to Actor-Network Theory, and grounding our argument in three studies-two longitudinal studies with "Day", an AI companion, and a multi-method study of agentic AI in software engineering-we contribute a set of replicable methodological toolkits for conducting AI phenomenology research: instruments for capturing lived experience across personal and professional contexts, three design concepts (translucent design, agency-aware value alignment, temporal co-evolution tracking), and a concrete research agenda. We offer this toolkit not as a new paradigm but as a practical scaffold that researchers can adapt as AI systems-and the humans who live alongside them-continue to co-evolve.
- Abstract(参考訳): AIに関しては、"普通"というものはありません。
ユーザビリティのスケールやエンゲージメントのメトリクスといった支配的な尺度は、ニュアンスをフラットにします。
AI現象学とは、AIシステムとのインタラクションにおいて、"どのように感じられたか?"という標準的な質問を越えて、"どのように機能したか?"という研究スタンスである。
AI現象学は、時間の経過とともに、ユーザの第一人物の認識とAIシステムの解釈を前提として、双方向の人間-AIアライメントのパラダイムとして機能する。
私たちはAI現象学を、ユーザーとAIシステム間のアライメントの体験、交渉、更新を捉えるフレームワークとして動機付けています。
ハッサールからポストフェノメロジからアクター・ネットワーク理論への系統の追跡と、AIコンパニオンによる2つの縦断的研究、ソフトウェア工学におけるエージェントAIのマルチメソッド研究、AI現象学研究の再現可能な方法論ツールキットのセット、個人的および専門的な文脈における生きた経験を捉えるための機器、3つのデザイン概念(透明なデザイン、エージェンシー・アウェア・アライメント、時間的共進化追跡)、具体的な研究課題の3つの議論の根拠となる。
私たちはこのツールキットを新しいパラダイムとしてではなく、研究者がAIシステムとして適応できる実践的な足場として提供します。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Human-Modeling in Sequential Decision-Making: An Analysis through the Lens of Human-Aware AI [20.21053807133341]
私たちは、人間を意識したAIシステムを構成するものの説明を提供しようとしています。
人間を意識したAIはデザイン指向のパラダイムであり、人間と対話するかもしれないモデリングの必要性に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-13T14:17:52Z) - The Interplay of Learning, Analytics, and Artificial Intelligence in Education: A Vision for Hybrid Intelligence [0.45207442500313766]
私は、AIのツールとしての狭義の概念化に挑戦し、AIの代替概念化の重要性を主張します。
人工知能と人工情報処理の違いを強調し、AIが人間の学習を理解するための道具としても役立つことを実証する。
本稿では、人間の認知の外部化、人間のメンタルモデルに影響を与えるAIモデルの内部化、密結合された人間とAIハイブリッドインテリジェンスシステムによる人間の認知の拡張という、AIのユニークな概念化について述べる。
論文 参考訳(メタデータ) (2024-03-24T10:07:46Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。