論文の概要: CORE: A Conceptual Reasoning Layer for Large Language Models
- arxiv url: http://arxiv.org/abs/2512.09222v1
- Date: Wed, 10 Dec 2025 01:08:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.356188
- Title: CORE: A Conceptual Reasoning Layer for Large Language Models
- Title(参考訳): CORE: 大規模言語モデルのための概念推論レイヤ
- Authors: Vishwas Hegde, Vindhya Shigehalli,
- Abstract要約: COREは、モデルウェイトを変更することなく、マルチターン安定性を改善する概念第一の相互作用層である。
COREは、普遍的な認知操作者の小さなライブラリと永続的なローカル概念を組み合わせたものである。
COREの挙動をシミュレートする予備プロトタイプでは、累積的なプロンプトトークンが約42%減少している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models handle single-turn generation well, but multi-turn interactions still require the model to reconstruct user intent and task state from an expanding token history because internal representations do not persist across turns. This token-first paradigm leads to drift, inconsistent reasoning modes, and growing prompts as conversations deepen. We propose CORE, a concept-first interaction layer that improves multi-turn stability without modifying model weights. CORE combines a small library of universal cognitive operators with a persistent Local Concept - a compact semantic state capturing the task, constraints, preferences, and intermediate results. Each model call receives only this concept state, the user's latest instruction, and the selected operator, eliminating the need to replay full history. A preliminary prototype simulating CORE's behavior shows about 42% reduction in cumulative prompt tokens, though this number reflects prototype conditions and should not be interpreted as a real-world performance estimate. CORE offers a model-agnostic mechanism that separates conceptual reasoning from language generation, suggesting a scalable direction for more stable multi-turn systems.
- Abstract(参考訳): 大規模言語モデルはシングルターン生成をうまく処理するが、内部表現がターン間で持続しないため、ユーザ意図やタスク状態を拡張トークン履歴から再構築する必要がある。
このトークンファーストのパラダイムは、会話が深まるにつれて、ドリフト、一貫性のない推論モード、そしてプロンプトが増加する。
モデル重みを変更することなくマルチターン安定性を向上させるコンセプトファーストインタラクション層であるCOREを提案する。
COREは、普遍的な認知オペレータの小さなライブラリと永続的なローカル概念(タスク、制約、嗜好、中間的な結果をキャプチャするコンパクトなセマンティックステート)を組み合わせる。
各モデルコールは、この概念状態、ユーザの最新の命令、選択されたオペレータのみを受け取り、完全な履歴を再生する必要がなくなる。
COREの挙動をシミュレートする予備プロトタイプでは、累積的なプロンプトトークンが約42%削減されているが、この数字はプロトタイプ条件を反映しており、実際の性能推定として解釈すべきではない。
COREは概念推論と言語生成を分離するモデルに依存しないメカニズムを提供しており、より安定したマルチターンシステムのためのスケーラブルな方向を示唆している。
関連論文リスト
- Structured Cognitive Loop for Behavioral Intelligence in Large Language Model Agents [0.0]
既存のフレームワークは認知、記憶、制御をひとつのプロンプトで混ぜることが多く、一貫性と予測可能性を減らす。
構造化認知ループ (Structured Cognitive Loop, SCL) は、これらの機能を分離する代替アーキテクチャとして提案されている。
SCLの平均タスク成功率は86.3%であり、ベースラインは70.5から76.8%である。
論文 参考訳(メタデータ) (2025-09-23T17:43:17Z) - Interactive Reasoning: Visualizing and Controlling Chain-of-Thought Reasoning in Large Language Models [54.85405423240165]
トピックの階層構造としてチェーンオブ思考出力を可視化するインタラクション設計であるInteractive Reasoningを導入する。
私たちは、不確実なトレードオフに直面したAIによる意思決定のプロトタイプであるHippoで、インタラクティブな推論を実装しています。
論文 参考訳(メタデータ) (2025-06-30T10:00:43Z) - Act-With-Think: Chunk Auto-Regressive Modeling for Generative Recommendation [49.45822979879046]
ジェネレーティブレコメンデーション(GR)は通常、アイテム情報の振る舞いや意味的な側面を離散トークンにエンコードする。
本稿では,Chunk AutoRegressive Modeling(CAR)について紹介する。
論文 参考訳(メタデータ) (2025-06-30T09:13:54Z) - Auxiliary Losses for Learning Generalizable Concept-based Models [5.4066453042367435]
コンセプト・ボトルネック・モデル (Concept Bottleneck Models, CBM) は導入以来人気を集めている。
CBMは基本的に、モデルの潜在空間を人間に理解可能な高レベルな概念に制限する。
本稿では,協調型コンセプション・ボトルネックモデル(coop-CBM)を提案し,性能トレードオフを克服する。
論文 参考訳(メタデータ) (2023-11-18T15:50:07Z) - Collaborative Development of NLP models [6.22933818252838]
我々は,NLPモデルとのマルチユーザインタラクションを実現するフレームワークであるCoDevを紹介する。
CoDevは、ユーザーが大規模言語モデルを使って概念を運用するのを助ける。
次に、大きな言語モデルを使って、ローカルとグローバルの意見が一致しない概念境界内のインスタンスを生成します。
論文 参考訳(メタデータ) (2023-05-20T15:55:39Z) - Visual Chain of Thought: Bridging Logical Gaps with Multimodal
Infillings [61.04460792203266]
本稿では, 逐次データ内の論理的ギャップを埋めるために, 視覚言語による接地を促進させる, チェーン・オブ・シントを利用する新しい手法であるVCoTを紹介する。
本手法は,下流タスクの論理的ギャップを低減するために,一貫した情報と新しい情報を加える合成マルチモーダル埋め込みを生成するために視覚誘導を用いる。
論文 参考訳(メタデータ) (2023-05-03T17:58:29Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。