論文の概要: What Do You Mean? Exploring How Humans and AI Interact with Symbols and Meanings in Their Interactions
- arxiv url: http://arxiv.org/abs/2510.05378v1
- Date: Mon, 06 Oct 2025 21:13:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.984164
- Title: What Do You Mean? Exploring How Humans and AI Interact with Symbols and Meanings in Their Interactions
- Title(参考訳): 人間とAIが記号や意味とどのように相互作用するかを探る
- Authors: Reza Habibi, Seung Wan Ha, Zhiyu Lin, Atieh Kashani, Ala Shafia, Lakshana Lakshmanarajan, Chia-Fang Chung, Magy Seif El-Nasr,
- Abstract要約: 我々は,人間とAIが記号とどのように相互作用し,その意味を共構築するかを検討した。
AIが社会的文脈において矛盾する意味とシンボルを導入したとき、参加者の63%が定義を再定義した。
このことは、シンボルと意味の対立が反映と再定義を促進させ、参加者とAIの両方が意味とシンボルをよりよく共有することを可能にすることを示唆している。
- 参考スコア(独自算出の注目度): 18.555844555619178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meaningful human-AI collaboration requires more than processing language, it demands a better understanding of symbols and their constructed meanings. While humans naturally interpret symbols through social interaction, AI systems treat them as patterns with compressed meanings, missing the dynamic meanings that emerge through conversation. Drawing on symbolic interactionism theory, we conducted two studies (N=37) investigated how humans and AI interact with symbols and co-construct their meanings. When AI introduced conflicting meanings and symbols in social contexts, 63% of participants reshaped their definitions. This suggests that conflicts in symbols and meanings prompt reflection and redefinition, allowing both participants and AI to have a better shared understanding of meanings and symbols. This work reveals that shared understanding emerges not from agreement but from the reciprocal exchange and reinterpretation of symbols, suggesting new paradigms for human-AI interaction design.
- Abstract(参考訳): 意味のある人間とAIのコラボレーションは、処理言語以上のものを必要とし、シンボルとその構築された意味をよりよく理解する必要がある。
人間は自然に社会的相互作用を通じてシンボルを解釈するが、AIシステムはそれらを圧縮された意味を持つパターンとして扱い、会話を通じて現れる動的な意味を欠いている。
記号的相互作用論に基づいて,人間とAIが記号とどのように相互作用し,その意味を共構築するかを2つの研究(N=37)を行った。
AIが社会的文脈において矛盾する意味とシンボルを導入したとき、参加者の63%が定義を再定義した。
このことは、シンボルと意味の対立が反映と再定義を促進させ、参加者とAIの両方が意味とシンボルをよりよく共有することを可能にすることを示唆している。
この研究は、共通理解が合意からではなく、シンボルの相互交換と再解釈から生まれることを明らかにし、人間とAIの相互作用設計の新しいパラダイムを示唆している。
関連論文リスト
- Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Intersymbolic AI: Interlinking Symbolic AI and Subsymbolic AI [3.20902205123321]
シンボルAIは、シンボルAIとサブシンボルAIを組み合わせて、AIの有効性を高める。
シンボルAIとサブシンボリックAIを組み合わせたインターシンボリックAIは、意識的思考と潜在意識的思考の組み合わせが人間の思考の有効性を高める方法に類似している。
論文 参考訳(メタデータ) (2024-06-17T14:01:59Z) - Symbols as a Lingua Franca for Bridging Human-AI Chasm for Explainable
and Advisable AI Systems [21.314210696069495]
我々は、人間-AI相互作用における(人間-理解可能な)シンボルの必要性は、非常に説得力があるように思える。
特に、人間は明示的な(象徴的な)知識とアドバイスを提供することに興味があり、機械の説明を期待する。
これだけでも、AIシステムは少なくとも象徴的な言葉でI/Oを行う必要がある。
論文 参考訳(メタデータ) (2021-09-21T01:30:06Z) - Philosophical Specification of Empathetic Ethical Artificial
Intelligence [0.0]
倫理的AIは、無意味なルールを推論し、ニュアンスと文脈を解釈し、意図を推論する能力を持つ必要がある。
我々は、エージェントを特定するために、エノクティビズム、セミオティックス、知覚記号システム、シンボルの出現を利用する。
それは、記号の意味が学習するにつれて変化し、その意図が目的として象徴的に表されるためである。
論文 参考訳(メタデータ) (2021-07-22T14:37:46Z) - Symbolic Behaviour in Artificial Intelligence [8.849576130278157]
象徴的なAIへの道は、シンボルが何であるかを再解釈することから始まります。
そして、この解釈が、人間が記号を使うときに示す行動特性をどのように統合するかを概説する。
シンボリック行動の出現に必要な認知機械を開発するためのツールとして,AI研究が社会的・文化的エンゲージメントを探求することを提案する。
論文 参考訳(メタデータ) (2021-02-05T20:07:14Z) - Towards Abstract Relational Learning in Human Robot Interaction [73.67226556788498]
人間は環境における実体を豊かに表現する。
ロボットが人間とうまく対話する必要がある場合、同様の方法で実体、属性、一般化を表現する必要がある。
本研究では,人間とロボットの相互作用を通じて,これらの表現をどのように獲得するかという課題に対処する。
論文 参考訳(メタデータ) (2020-11-20T12:06:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。