論文の概要: CogCanvas: Verbatim-Grounded Artifact Extraction for Long LLM Conversations
- arxiv url: http://arxiv.org/abs/2601.00821v2
- Date: Tue, 06 Jan 2026 09:48:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.521307
- Title: CogCanvas: Verbatim-Grounded Artifact Extraction for Long LLM Conversations
- Title(参考訳): CogCanvas:長いLLM会話のためのヴァーバティムグラウンドアーティファクト抽出
- Authors: Tao An,
- Abstract要約: Cogcanvasは、チームがホワイトボードを使って共有メモリをアンロックする方法にインスパイアされた、トレーニング不要のフレームワークです。
会話履歴を圧縮する代わりに、Cogcanvasは言葉で表された人工物(決定、事実、リマインダー)を抽出し、時間対応グラフを通じてそれらを検索する。
LoCoMoのベンチマークでは、Cogcanvasはトレーニング不要のメソッド(32.4%)の中で最高で、RAG(24.6%)を+7.8ppで上回っている。
- 参考スコア(独自算出の注目度): 0.65268245109828
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversation summarization loses nuanced details: when asked about coding preferences after 40 turns, summarization recalls "use type hints" but drops the critical constraint "everywhere" (19.0% exact match vs. 93.0% for our approach). We present CogCanvas, a training-free framework inspired by how teams use whiteboards to anchor shared memory. Rather than compressing conversation history, CogCanvas extracts verbatim-grounded artifacts (decisions, facts, reminders) and retrieves them via temporal-aware graph. On the LoCoMo benchmark (all 10 conversations from the ACL 2024 release), CogCanvas achieves the highest overall accuracy among training-free methods (32.4%), outperforming RAG (24.6%) by +7.8pp, with decisive advantages on complex reasoning tasks: +20.6pp on temporal reasoning (32.7% vs. 12.1% RAG) and +1.1pp on multi-hop questions (41.7% vs. 40.6% RAG). CogCanvas also leads on single-hop retrieval (26.6% vs. 24.6% RAG). Ablation studies reveal that BGE reranking contributes +7.7pp, making it the largest contributor to CogCanvas's performance. While heavily-optimized approaches achieve higher absolute scores through dedicated training (EverMemOS: ~92%), our training-free approach provides practitioners with an immediately-deployable alternative that significantly outperforms standard baselines. Code and data: https://github.com/tao-hpu/cog-canvas
- Abstract(参考訳): 40回目以降のコーディングの好みについて尋ねると、要約は"use type hints"をリコールするが、クリティカルな制約は"everywhere"(我々のアプローチでは19.0%の精度対. 93.0%)をドロップする。
これはチームがホワイトボードを使って共有メモリをアンロックする方法にインスパイアされた、トレーニング不要のフレームワークです。
会話履歴を圧縮する代わりに、CagCanvasは動詞で接頭した成果物(決定、事実、リマインダー)を抽出し、時間対応グラフを通じて検索する。
LoCoMoベンチマーク(ACL 2024リリースからの10件の会話すべて)では、CogCanvasはトレーニングフリーメソッド(32.4%)で最高精度を達成し、RAG(24.6%)を+7.8ppで上回り、複雑な推論タスクでは+20.6pp、時間的推論では+20.6pp(32.7%対12.1% RAG)、マルチホップ質問では+1.1pp(41.7%対40.6% RAG)が圧倒的に有利である。
CogCanvasはシングルホップ検索(26.6%対24.6%RAG)も行っている。
アブレーション研究により、BGEは+7.7ppのコントリビューションを達成し、CagCanvasのパフォーマンスの最大のコントリビューターとなった。
高度に最適化されたアプローチは、専用トレーニング(EverMemOS: ~92%)を通じてより高い絶対スコアを達成する一方で、トレーニングなしのアプローチは、実践者に対して、標準ベースラインを大幅に上回る即時デプロイ可能な代替手段を提供する。
コードとデータ:https://github.com/tao-hpu/cog-canvas
関連論文リスト
- EdgeJury: Cross-Reviewed Small-Model Ensembles for Truthful Question Answering on Serverless Edge Inference [0.0]
EdgeJuryは、真実性と堅牢性を改善する軽量アンサンブルフレームワークです。
TruthfulQA (MC1)では、EdgeJuryの精度は76.2%である。
200-question adversarial EdgeCasesセットでは、EdgeJuryは+48.2%の利得を得る。
論文 参考訳(メタデータ) (2025-12-29T14:48:40Z) - MapReduce LoRA: Advancing the Pareto Front in Multi-Preference Optimization for Generative Models [52.32146943039743]
人間のフィードバックからの強化学習は、生成モデルと人間の美学と知覚的嗜好を高度に一致させる。
MapReduce LoRA と Reward-aware Token Embedding (RaTE) の2つの補完手法を紹介する。
我々のフレームワークは、モダリティにまたがる新しい最先端のマルチ参照アライメントのレシピを定めている。
論文 参考訳(メタデータ) (2025-11-25T18:49:21Z) - Iterative Reasoning Preference Optimization [84.15992372132507]
生成したChain-of-Thought(CoT)候補間の嗜好を最適化するための反復的アプローチを開発する。
このスキームの繰り返し繰り返しにおける推論の改善を示す。
例えば、GSM8Kは55.6%から81.6%に大きく改善され、精度は88.7%となり、32のサンプルのうち多数が投票した。
論文 参考訳(メタデータ) (2024-04-30T17:28:05Z) - Progressive-Hint Prompting Improves Reasoning in Large Language Models [63.98629132836499]
本稿では,プログレッシブ・ヒント・プロンプト(PHP)と呼ばれる新しいプロンプト手法を提案する。
事前に生成された回答をヒントとして使用することで、ユーザとLLM(Large Language Models)間の自動多元的対話を可能にする。
我々は7つのベンチマークで広範囲かつ包括的な実験を行った。その結果、PHPは高い効率を保ちながら精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T16:29:48Z) - KGE-CL: Contrastive Learning of Knowledge Graph Embeddings [64.67579344758214]
本稿では,知識グラフ埋め込みのための簡易かつ効率的な学習フレームワークを提案する。
これは、関連するエンティティと異なる三重項におけるエンティティ-リレーションのカップルのセマンティック距離を短縮することができる。
WN18RRデータセットで51.2% MRR、46.8% Hits@1、59.1% MRR、51.8% Hits@1、YAGO3-10データセットで達成できる。
論文 参考訳(メタデータ) (2021-12-09T12:45:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。