論文の概要: Investigating Tool-Memory Conflicts in Tool-Augmented LLMs
- arxiv url: http://arxiv.org/abs/2601.09760v1
- Date: Wed, 14 Jan 2026 03:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.84544
- Title: Investigating Tool-Memory Conflicts in Tool-Augmented LLMs
- Title(参考訳): ツール強化LDMにおけるツールメモリ競合の調査
- Authors: Jiali Cheng, Rui Pan, Hadi Amiri,
- Abstract要約: 我々は、新しいタイプの知識紛争 -- Tool-Memory Conflict (TMC) を提案する。
TMCは、内部パラメトリック知識がツール拡張LDMの外部ツール知識と矛盾する場所である。
- 参考スコア(独自算出の注目度): 20.760278842357625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tool-augmented large language models (LLMs) have powered many applications. However, they are likely to suffer from knowledge conflict. In this paper, we propose a new type of knowledge conflict -- Tool-Memory Conflict (TMC), where the internal parametric knowledge contradicts with the external tool knowledge for tool-augmented LLMs. We find that existing LLMs, though powerful, suffer from TMC, especially on STEM-related tasks. We also uncover that under different conditions, tool knowledge and parametric knowledge may be prioritized differently. We then evaluate existing conflict resolving techniques, including prompting-based and RAG-based methods. Results show that none of these approaches can effectively resolve tool-memory conflicts.
- Abstract(参考訳): ツール拡張大型言語モデル(LLM)は、多くのアプリケーションに利用されている。
しかし、彼らは知識の衝突に悩まされる可能性が高い。
本稿では,内部パラメトリック知識とツール拡張LDMの外部ツール知識とが矛盾する,新しいタイプの知識コンフリクト - Tool-Memory Conflict (TMC)を提案する。
既存の LLM は,特に STEM 関連タスクにおいて TMC に悩まされている。
また、異なる条件下では、ツール知識とパラメトリック知識が異なる優先順位付けされる可能性があることも明らかにした。
次に、プロンプトベースおよびRAGベースの手法を含む既存のコンフリクト解決手法を評価する。
その結果、これらのアプローチのどれも、ツールとメモリの衝突を効果的に解決できないことがわかった。
関連論文リスト
- Steering Knowledge Selection Behaviours in LLMs via SAE-Based Representation Engineering [23.96385393039587]
大規模言語モデル(LLM)は、そのパラメータに大量の事実知識を格納することができる。
LLMは、中間層における知識衝突のシグナルを内部的に登録することができる。
我々は,事前訓練されたスパースオートエンコーダを用いた表現工学手法であるtextscSpAREを提案する。
論文 参考訳(メタデータ) (2024-10-21T13:30:47Z) - Untangle the KNOT: Interweaving Conflicting Knowledge and Reasoning Skills in Large Language Models [51.72963030032491]
大規模言語モデル(LLM)の知識文書は、時代遅れや誤った知識のためにLLMの記憶と矛盾する可能性がある。
我々は,知識紛争解決のための新しいデータセットKNOTを構築した。
論文 参考訳(メタデータ) (2024-04-04T16:40:11Z) - Efficient Tool Use with Chain-of-Abstraction Reasoning [63.08202389132155]
大規模言語モデル(LLM)は、現実世界の知識に対する推論の基礎となる必要がある。
マルチステップ推論問題におけるツールの実行には,微調整LDMエージェントの課題が残されている。
マルチステップ推論におけるツールの活用方法として, LLM の新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T21:53:30Z) - MetaTool Benchmark for Large Language Models: Deciding Whether to Use Tools and Which to Use [79.87054552116443]
大規模言語モデル(LLM)は、その印象的な自然言語処理(NLP)能力のために大きな注目を集めている。
このベンチマークは、LLMがツールの使用意識を持ち、ツールを正しく選択できるかどうかを評価するためのものだ。
8つの人気のあるLCMを巻き込んだ実験を行い、その大半は依然として効果的にツールを選択するのに苦労していることがわかった。
論文 参考訳(メタデータ) (2023-10-04T19:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。