論文の概要: Position: Introspective Experience from Conversational Environments as a Path to Better Learning
- arxiv url: http://arxiv.org/abs/2602.14910v1
- Date: Mon, 16 Feb 2026 16:45:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.546687
- Title: Position: Introspective Experience from Conversational Environments as a Path to Better Learning
- Title(参考訳): 位置:より良い学習への道筋としての会話環境からのイントロスペクティブ体験
- Authors: Claudiu Cristian Musat, Jackson Tolins, Diego Antognini, Jingling Li, Martin Klissarov, Tom Duerig,
- Abstract要約: 我々は、堅牢な推論は言語的自己回帰から生まれ、それ自体は高品質な社会的相互作用から生じると論じている。
これらの対話的な足場を最適化することが、次世代の汎用知能の主要なレバーである、と結論付けている。
- 参考スコア(独自算出の注目度): 12.02544013955558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current approaches to AI training treat reasoning as an emergent property of scale. We argue instead that robust reasoning emerges from linguistic self-reflection, itself internalized from high-quality social interaction. Drawing on Vygotskian developmental psychology, we advance three core positions centered on Introspection. First, we argue for the Social Genesis of the Private Mind: learning from conversational environments rises to prominence as a new way to make sense of the world; the friction of aligning with another agent, internal or not, refines and crystallizes the reasoning process. Second, we argue that dialogically scaffolded introspective experiences allow agents to engage in sense-making that decouples learning from immediate data streams, transforming raw environmental data into rich, learnable narratives. Finally, we contend that Dialogue Quality is the New Data Quality: the depth of an agent's private reasoning, and its efficiency regarding test-time compute, is determined by the diversity and rigor of the dialogues it has mastered. We conclude that optimizing these conversational scaffolds is the primary lever for the next generation of general intelligence.
- Abstract(参考訳): AIトレーニングの現在のアプローチは、推論をスケールの創発的な特性として扱う。
我々は、頑健な推論は言語的自己回帰から生まれ、それ自体は高品質な社会的相互作用から内部化されていると主張する。
Vygotskianの発達心理学に基づいて,イントロスペクションを中心とした3つの中心的位置を前進させた。
会話環境からの学習は、世界を理解する新しい方法として有名になり、他のエージェントと協調する摩擦は、内部的あるいは非的であり、推論プロセスを洗練し、結晶化する。
第二に、対話的な内省的体験により、エージェントは即時データストリームから学習を分離し、生の環境データを豊かで学習可能な物語へと変換する感覚形成に携わることができる、と論じる。
最後に,対話品質は新たなデータ品質であると主張する。エージェントのプライベート推論の深さとテスト時間計算の効率は,学習した対話の多様性と厳密さによって決定される。
これらの対話的な足場を最適化することが、次世代の汎用知能の主要なレバーである、と結論付けている。
関連論文リスト
- Are You Listening to Me? Fine-Tuning Chatbots for Empathetic Dialogue [0.5849783371898033]
感情的にリッチなインタラクションを生成するタスクにおいて,Large Language Models (LLM) がどのように反応するかを検討する。
本研究では,感情分析(VADER)と専門家評価の両方を用いて,対話の感情的進行を分析した。
論文 参考訳(メタデータ) (2025-07-03T11:32:41Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - A Desideratum for Conversational Agents: Capabilities, Challenges, and Future Directions [51.96890647837277]
大規模言語モデル(LLM)は、従来の対話システムから、自律的な行動、文脈認識、ユーザとのマルチターンインタラクションが可能な高度なエージェントへと、会話AIを推進してきた。
本調査では,人間レベルの知性にアプローチするよりスケーラブルなシステムにおいて,何が達成されたのか,どのような課題が持続するのか,何を行う必要があるのか,といった,次世代の会話エージェントのデシラトゥムを提示する。
論文 参考訳(メタデータ) (2025-04-07T21:01:25Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Rational Sensibility: LLM Enhanced Empathetic Response Generation Guided by Self-presentation Theory [8.439724621886779]
LLM(Large Language Models)の開発は、人間中心の人工知能(AGI)に希望の光を与えている。
共感は人間にとって重要な感情的属性として機能し、人間中心のAGIにおいて不定の役割を果たす。
本稿では,社会学における自己表現理論にインスパイアされた革新的なエンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2023-12-14T07:38:12Z) - Emergent Communication for Rules Reasoning [38.24159397787027]
エージェントが高レベルのルールを推論し伝達することを奨励する認知指向環境であるReasoning Gameを提案する。
実験結果から,Reasoning Gameでは,意味論的に安定かつ構成的な言語が出現し,推論問題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-11-08T05:57:39Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Towards Emotion-Aware Agents For Negotiation Dialogues [2.1454205511807234]
交渉は、人間の意思決定における感情的な出会いをカプセル化する複雑な社会的相互作用である。
人間と交渉できるバーチャルエージェントは、教育と会話のAIに役立ちます。
交渉から抽出した感情特性が予測にどの程度役立つかを分析する。
論文 参考訳(メタデータ) (2021-07-28T04:42:36Z) - BiERU: Bidirectional Emotional Recurrent Unit for Conversational
Sentiment Analysis [18.1320976106637]
会話感情分析と単文感情分析の主な違いは、文脈情報の存在である。
既存のアプローチでは、会話内の異なるパーティを区別し、コンテキスト情報をモデル化するために複雑なディープラーニング構造を採用している。
本稿では,会話感情分析のための双方向感情的反復単位という,高速でコンパクトでパラメータ効率のよい非依存フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-31T11:13:13Z) - Will I Sound Like Me? Improving Persona Consistency in Dialogues through
Pragmatic Self-Consciousness [62.55060760615656]
一貫性に対処する最近のモデルは、しばしば追加の自然言語推論(NLI)ラベルでトレーニングするか、あるいは一貫性を維持するためにトレーニングされた追加モジュールを生成エージェントにアタッチする。
社会的認知と実用性に触発されて、私たちは既存の対話エージェントに、想像上のリスナーを通して、公的な自己意識を持たせました。
我々のアプローチは、Rational Speech Actsフレームワークに基づいて、会話エージェントに矛盾の発声を控えるように強制することができる。
論文 参考訳(メタデータ) (2020-04-13T08:16:16Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。