論文の概要: Focus-LIME: Surgical Interpretation of Long-Context Large Language Models via Proxy-Based Neighborhood Selection
- arxiv url: http://arxiv.org/abs/2602.04607v1
- Date: Wed, 04 Feb 2026 14:34:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.57165
- Title: Focus-LIME: Surgical Interpretation of Long-Context Large Language Models via Proxy-Based Neighborhood Selection
- Title(参考訳): Focus-LIME: Proxy-based Neighborhood Selectionによる長期大言語モデルの手術的解釈
- Authors: Junhao Liu, Haonan Yu, Zhenyu Yan, Xin Zhang,
- Abstract要約: Focus-LIMEは、外科的解釈のトラクタビリティを回復するために設計された粗大なフレームワークである。
本手法は外科的説明を実践可能とし,ユーザに忠実な説明を提供する。
- 参考スコア(独自算出の注目度): 9.796641194900749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) scale to handle massive context windows, achieving surgical feature-level interpretation is essential for high-stakes tasks like legal auditing and code debugging. However, existing local model-agnostic explanation methods face a critical dilemma in these scenarios: feature-based methods suffer from attribution dilution due to high feature dimensionality, thus failing to provide faithful explanations. In this paper, we propose Focus-LIME, a coarse-to-fine framework designed to restore the tractability of surgical interpretation. Focus-LIME utilizes a proxy model to curate the perturbation neighborhood, allowing the target model to perform fine-grained attribution exclusively within the optimized context. Empirical evaluations on long-context benchmarks demonstrate that our method makes surgical explanations practicable and provides faithful explanations to users.
- Abstract(参考訳): 大規模言語モデル(LLM)が大規模コンテキストウィンドウを処理するためにスケールするため、法的な監査やコードのデバッグといった高度なタスクにおいて、外科的特徴レベルの解釈を達成することが不可欠である。
しかし、既存の局所モデルに依存しない説明手法は、これらのシナリオにおいて重要なジレンマに直面している。
本稿では,外科的解釈のトラクタビリティを回復するための粗大なフレームワークであるFocus-LIMEを提案する。
Focus-LIMEはプロキシモデルを使用して摂動近傍をキュレートし、ターゲットモデルは最適化されたコンテキスト内でのみ微粒な属性を実行できる。
本手法は外科的説明を実践可能とし,ユーザに対して忠実な説明を提供することが実証された。
関連論文リスト
- Locate, Steer, and Improve: A Practical Survey of Actionable Mechanistic Interpretability in Large Language Models [122.58252919699122]
機械的解釈可能性 (MI) は、大規模言語モデル (LLM) の意思決定を決定づける重要なアプローチとして登場した。
Awesomeinterventionable-MI-Survey" というパイプラインを中心に構築された実践的調査を提案する。
論文 参考訳(メタデータ) (2026-01-20T14:23:23Z) - Unleashing the Potential of the Diffusion Model in Few-shot Semantic Segmentation [56.87049651707208]
セマンティックはインコンテクストタスクへと発展し、一般化的セグメンテーションモデルを評価する上で重要な要素となった。
我々の最初の焦点は、クエリイメージとサポートイメージの相互作用を容易にする方法を理解することであり、その結果、自己注意フレームワーク内のKV融合法が提案される。
そこで我々はDiffewSというシンプルで効果的なフレームワークを構築し,従来の潜在拡散モデルの生成フレームワークを最大限に保持する。
論文 参考訳(メタデータ) (2024-10-03T10:33:49Z) - Optimizing Latent Graph Representations of Surgical Scenes for Zero-Shot
Domain Transfer [6.880129372917993]
ドメイン一般化のための4つのオブジェクト中心のアプローチを評価し、ベースライン性能を確立する。
本稿では, 領域一般化のための最適化手法LG-DGを開発した。
最適化されたLG-DGは、最高のベースラインアプローチよりも9.28%向上した。
論文 参考訳(メタデータ) (2024-03-11T17:36:11Z) - On the Tip of the Tongue: Analyzing Conceptual Representation in Large
Language Models with Reverse-Dictionary Probe [36.65834065044746]
我々は、言語記述に暗示される対象概念の用語を生成するために、文脈内学習を用いてモデルを誘導する。
実験結果から,逆ディファレンシャルタスクによって探索された概念推論能力は,モデルの一般的な推論性能を予測することが示唆された。
論文 参考訳(メタデータ) (2024-02-22T09:45:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。