論文の概要: What Do You Mean? Exploring How Humans and AI Interact with Symbols and Meanings in Their Interactions
- arxiv url: http://arxiv.org/abs/2510.05378v1
- Date: Mon, 06 Oct 2025 21:13:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.984164
- Title: What Do You Mean? Exploring How Humans and AI Interact with Symbols and Meanings in Their Interactions
- Title(参考訳): 人間とAIが記号や意味とどのように相互作用するかを探る
- Authors: Reza Habibi, Seung Wan Ha, Zhiyu Lin, Atieh Kashani, Ala Shafia, Lakshana Lakshmanarajan, Chia-Fang Chung, Magy Seif El-Nasr,
- Abstract要約: 我々は,人間とAIが記号とどのように相互作用し,その意味を共構築するかを検討した。
AIが社会的文脈において矛盾する意味とシンボルを導入したとき、参加者の63%が定義を再定義した。
このことは、シンボルと意味の対立が反映と再定義を促進させ、参加者とAIの両方が意味とシンボルをよりよく共有することを可能にすることを示唆している。
- 参考スコア(独自算出の注目度): 18.555844555619178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meaningful human-AI collaboration requires more than processing language, it demands a better understanding of symbols and their constructed meanings. While humans naturally interpret symbols through social interaction, AI systems treat them as patterns with compressed meanings, missing the dynamic meanings that emerge through conversation. Drawing on symbolic interactionism theory, we conducted two studies (N=37) investigated how humans and AI interact with symbols and co-construct their meanings. When AI introduced conflicting meanings and symbols in social contexts, 63% of participants reshaped their definitions. This suggests that conflicts in symbols and meanings prompt reflection and redefinition, allowing both participants and AI to have a better shared understanding of meanings and symbols. This work reveals that shared understanding emerges not from agreement but from the reciprocal exchange and reinterpretation of symbols, suggesting new paradigms for human-AI interaction design.
- Abstract(参考訳): 意味のある人間とAIのコラボレーションは、処理言語以上のものを必要とし、シンボルとその構築された意味をよりよく理解する必要がある。
人間は自然に社会的相互作用を通じてシンボルを解釈するが、AIシステムはそれらを圧縮された意味を持つパターンとして扱い、会話を通じて現れる動的な意味を欠いている。
記号的相互作用論に基づいて,人間とAIが記号とどのように相互作用し,その意味を共構築するかを2つの研究(N=37)を行った。
AIが社会的文脈において矛盾する意味とシンボルを導入したとき、参加者の63%が定義を再定義した。
このことは、シンボルと意味の対立が反映と再定義を促進させ、参加者とAIの両方が意味とシンボルをよりよく共有することを可能にすることを示唆している。
この研究は、共通理解が合意からではなく、シンボルの相互交換と再解釈から生まれることを明らかにし、人間とAIの相互作用設計の新しいパラダイムを示唆している。
関連論文リスト
- Revealing emergent human-like conceptual representations from language prediction [90.73285317321312]
大規模言語モデル(LLMs)は、人間らしい振る舞いを示すテキストの次のトーケン予測によってのみ訓練される。
これらのモデルでは、概念は人間のものと似ていますか?
LLMは、他の概念に関する文脈的手がかりに関連して、言語記述から柔軟に概念を導出できることがわかった。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Intersymbolic AI: Interlinking Symbolic AI and Subsymbolic AI [3.20902205123321]
シンボルAIは、シンボルAIとサブシンボルAIを組み合わせて、AIの有効性を高める。
シンボルAIとサブシンボリックAIを組み合わせたインターシンボリックAIは、意識的思考と潜在意識的思考の組み合わせが人間の思考の有効性を高める方法に類似している。
論文 参考訳(メタデータ) (2024-06-17T14:01:59Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - What should I say? -- Interacting with AI and Natural Language
Interfaces [0.0]
HAI(Human-AI Interaction)サブフィールドは、HCI(Human-Computer Interaction)フィールドから生まれ、この概念を検証することを目的としている。
以前の研究では、マインド表現の理論は成功と努力の無いコミュニケーションに不可欠であると示唆されていたが、AIと対話する際にマインド表現の理論が確立されるという点に関しては、ほとんど理解されていない。
論文 参考訳(メタデータ) (2024-01-12T05:10:23Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Symbols as a Lingua Franca for Bridging Human-AI Chasm for Explainable
and Advisable AI Systems [21.314210696069495]
我々は、人間-AI相互作用における(人間-理解可能な)シンボルの必要性は、非常に説得力があるように思える。
特に、人間は明示的な(象徴的な)知識とアドバイスを提供することに興味があり、機械の説明を期待する。
これだけでも、AIシステムは少なくとも象徴的な言葉でI/Oを行う必要がある。
論文 参考訳(メタデータ) (2021-09-21T01:30:06Z) - Philosophical Specification of Empathetic Ethical Artificial
Intelligence [0.0]
倫理的AIは、無意味なルールを推論し、ニュアンスと文脈を解釈し、意図を推論する能力を持つ必要がある。
我々は、エージェントを特定するために、エノクティビズム、セミオティックス、知覚記号システム、シンボルの出現を利用する。
それは、記号の意味が学習するにつれて変化し、その意図が目的として象徴的に表されるためである。
論文 参考訳(メタデータ) (2021-07-22T14:37:46Z) - Symbolic Behaviour in Artificial Intelligence [8.849576130278157]
象徴的なAIへの道は、シンボルが何であるかを再解釈することから始まります。
そして、この解釈が、人間が記号を使うときに示す行動特性をどのように統合するかを概説する。
シンボリック行動の出現に必要な認知機械を開発するためのツールとして,AI研究が社会的・文化的エンゲージメントを探求することを提案する。
論文 参考訳(メタデータ) (2021-02-05T20:07:14Z) - Towards Abstract Relational Learning in Human Robot Interaction [73.67226556788498]
人間は環境における実体を豊かに表現する。
ロボットが人間とうまく対話する必要がある場合、同様の方法で実体、属性、一般化を表現する必要がある。
本研究では,人間とロボットの相互作用を通じて,これらの表現をどのように獲得するかという課題に対処する。
論文 参考訳(メタデータ) (2020-11-20T12:06:46Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。