論文の概要: Position: Introspective Experience from Conversational Environments as a Path to Better Learning
- arxiv url: http://arxiv.org/abs/2602.14910v1
- Date: Mon, 16 Feb 2026 16:45:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.546687
- Title: Position: Introspective Experience from Conversational Environments as a Path to Better Learning
- Title(参考訳): 位置:より良い学習への道筋としての会話環境からのイントロスペクティブ体験
- Authors: Claudiu Cristian Musat, Jackson Tolins, Diego Antognini, Jingling Li, Martin Klissarov, Tom Duerig,
- Abstract要約: 我々は、堅牢な推論は言語的自己回帰から生まれ、それ自体は高品質な社会的相互作用から生じると論じている。
これらの対話的な足場を最適化することが、次世代の汎用知能の主要なレバーである、と結論付けている。
- 参考スコア(独自算出の注目度): 12.02544013955558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current approaches to AI training treat reasoning as an emergent property of scale. We argue instead that robust reasoning emerges from linguistic self-reflection, itself internalized from high-quality social interaction. Drawing on Vygotskian developmental psychology, we advance three core positions centered on Introspection. First, we argue for the Social Genesis of the Private Mind: learning from conversational environments rises to prominence as a new way to make sense of the world; the friction of aligning with another agent, internal or not, refines and crystallizes the reasoning process. Second, we argue that dialogically scaffolded introspective experiences allow agents to engage in sense-making that decouples learning from immediate data streams, transforming raw environmental data into rich, learnable narratives. Finally, we contend that Dialogue Quality is the New Data Quality: the depth of an agent's private reasoning, and its efficiency regarding test-time compute, is determined by the diversity and rigor of the dialogues it has mastered. We conclude that optimizing these conversational scaffolds is the primary lever for the next generation of general intelligence.
- Abstract(参考訳): AIトレーニングの現在のアプローチは、推論をスケールの創発的な特性として扱う。
我々は、頑健な推論は言語的自己回帰から生まれ、それ自体は高品質な社会的相互作用から内部化されていると主張する。
Vygotskianの発達心理学に基づいて,イントロスペクションを中心とした3つの中心的位置を前進させた。
会話環境からの学習は、世界を理解する新しい方法として有名になり、他のエージェントと協調する摩擦は、内部的あるいは非的であり、推論プロセスを洗練し、結晶化する。
第二に、対話的な内省的体験により、エージェントは即時データストリームから学習を分離し、生の環境データを豊かで学習可能な物語へと変換する感覚形成に携わることができる、と論じる。
最後に,対話品質は新たなデータ品質であると主張する。エージェントのプライベート推論の深さとテスト時間計算の効率は,学習した対話の多様性と厳密さによって決定される。
これらの対話的な足場を最適化することが、次世代の汎用知能の主要なレバーである、と結論付けている。
関連論文リスト
- Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Rational Sensibility: LLM Enhanced Empathetic Response Generation Guided by Self-presentation Theory [8.439724621886779]
LLM(Large Language Models)の開発は、人間中心の人工知能(AGI)に希望の光を与えている。
共感は人間にとって重要な感情的属性として機能し、人間中心のAGIにおいて不定の役割を果たす。
本稿では,社会学における自己表現理論にインスパイアされた革新的なエンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2023-12-14T07:38:12Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Towards Emotion-Aware Agents For Negotiation Dialogues [2.1454205511807234]
交渉は、人間の意思決定における感情的な出会いをカプセル化する複雑な社会的相互作用である。
人間と交渉できるバーチャルエージェントは、教育と会話のAIに役立ちます。
交渉から抽出した感情特性が予測にどの程度役立つかを分析する。
論文 参考訳(メタデータ) (2021-07-28T04:42:36Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。