論文の概要: Focus-LIME: Surgical Interpretation of Long-Context Large Language Models via Proxy-Based Neighborhood Selection
- arxiv url: http://arxiv.org/abs/2602.04607v1
- Date: Wed, 04 Feb 2026 14:34:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.57165
- Title: Focus-LIME: Surgical Interpretation of Long-Context Large Language Models via Proxy-Based Neighborhood Selection
- Title(参考訳): Focus-LIME: Proxy-based Neighborhood Selectionによる長期大言語モデルの手術的解釈
- Authors: Junhao Liu, Haonan Yu, Zhenyu Yan, Xin Zhang,
- Abstract要約: Focus-LIMEは、外科的解釈のトラクタビリティを回復するために設計された粗大なフレームワークである。
本手法は外科的説明を実践可能とし,ユーザに忠実な説明を提供する。
- 参考スコア(独自算出の注目度): 9.796641194900749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) scale to handle massive context windows, achieving surgical feature-level interpretation is essential for high-stakes tasks like legal auditing and code debugging. However, existing local model-agnostic explanation methods face a critical dilemma in these scenarios: feature-based methods suffer from attribution dilution due to high feature dimensionality, thus failing to provide faithful explanations. In this paper, we propose Focus-LIME, a coarse-to-fine framework designed to restore the tractability of surgical interpretation. Focus-LIME utilizes a proxy model to curate the perturbation neighborhood, allowing the target model to perform fine-grained attribution exclusively within the optimized context. Empirical evaluations on long-context benchmarks demonstrate that our method makes surgical explanations practicable and provides faithful explanations to users.
- Abstract(参考訳): 大規模言語モデル(LLM)が大規模コンテキストウィンドウを処理するためにスケールするため、法的な監査やコードのデバッグといった高度なタスクにおいて、外科的特徴レベルの解釈を達成することが不可欠である。
しかし、既存の局所モデルに依存しない説明手法は、これらのシナリオにおいて重要なジレンマに直面している。
本稿では,外科的解釈のトラクタビリティを回復するための粗大なフレームワークであるFocus-LIMEを提案する。
Focus-LIMEはプロキシモデルを使用して摂動近傍をキュレートし、ターゲットモデルは最適化されたコンテキスト内でのみ微粒な属性を実行できる。
本手法は外科的説明を実践可能とし,ユーザに対して忠実な説明を提供することが実証された。
関連論文リスト
- Who Judges the Judge? Evaluating LLM-as-a-Judge for French Medical open-ended QA [5.328379818938021]
フランスの医学OEQAにおいて,大言語モデル(LLM)が意味的等価性の判断として機能するかどうかを評価する。
以上の結果から, LLMに基づく判断は, 回答を生んだモデルに強く影響されていることが明らかとなった。
論文 参考訳(メタデータ) (2026-03-04T13:12:30Z) - Locate, Steer, and Improve: A Practical Survey of Actionable Mechanistic Interpretability in Large Language Models [122.58252919699122]
機械的解釈可能性 (MI) は、大規模言語モデル (LLM) の意思決定を決定づける重要なアプローチとして登場した。
Awesomeinterventionable-MI-Survey" というパイプラインを中心に構築された実践的調査を提案する。
論文 参考訳(メタデータ) (2026-01-20T14:23:23Z) - Connecting the Dots: Training-Free Visual Grounding via Agentic Reasoning [63.109585527799005]
GroundingAgentは、タスク固有の微調整なしで動作するビジュアルグラウンドティングフレームワークである。
広く使用されているベンチマークでは、平均ゼロショットグラウンドの精度は65.1%である。
また、強い解釈可能性を提供し、各推論ステップを透過的に照らす。
論文 参考訳(メタデータ) (2025-11-24T03:11:08Z) - ImCoref-CeS: An Improved Lightweight Pipeline for Coreference Resolution with LLM-based Checker-Splitter Refinement [45.01372641622595]
InmCoref-CeSは,拡張教師付きモデルとLarge Language Models(LLM)ベースの推論を統合する新しいフレームワークである。
まず、教師付きニューラルネットワークの性能境界を押し上げる改良CR法(textbfImCoref)を提案する。
マルチロールチェッカースプリッターエージェントとして機能するLCMを用いて、候補参照とコア参照結果の検証を行う。
論文 参考訳(メタデータ) (2025-10-11T14:48:08Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Unleashing the Potential of the Diffusion Model in Few-shot Semantic Segmentation [56.87049651707208]
セマンティックはインコンテクストタスクへと発展し、一般化的セグメンテーションモデルを評価する上で重要な要素となった。
我々の最初の焦点は、クエリイメージとサポートイメージの相互作用を容易にする方法を理解することであり、その結果、自己注意フレームワーク内のKV融合法が提案される。
そこで我々はDiffewSというシンプルで効果的なフレームワークを構築し,従来の潜在拡散モデルの生成フレームワークを最大限に保持する。
論文 参考訳(メタデータ) (2024-10-03T10:33:49Z) - Optimizing Latent Graph Representations of Surgical Scenes for Zero-Shot
Domain Transfer [6.880129372917993]
ドメイン一般化のための4つのオブジェクト中心のアプローチを評価し、ベースライン性能を確立する。
本稿では, 領域一般化のための最適化手法LG-DGを開発した。
最適化されたLG-DGは、最高のベースラインアプローチよりも9.28%向上した。
論文 参考訳(メタデータ) (2024-03-11T17:36:11Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - On the Tip of the Tongue: Analyzing Conceptual Representation in Large
Language Models with Reverse-Dictionary Probe [36.65834065044746]
我々は、言語記述に暗示される対象概念の用語を生成するために、文脈内学習を用いてモデルを誘導する。
実験結果から,逆ディファレンシャルタスクによって探索された概念推論能力は,モデルの一般的な推論性能を予測することが示唆された。
論文 参考訳(メタデータ) (2024-02-22T09:45:26Z) - Coherent Entity Disambiguation via Modeling Topic and Categorical
Dependency [87.16283281290053]
従来のエンティティ曖昧化(ED)メソッドは、参照コンテキストと候補エンティティの一致するスコアに基づいて予測を行う、識別パラダイムを採用している。
本稿では,エンティティ予測のコヒーレンス向上を目的とした新しいデザインを備えたEDシステムであるCoherentedを提案する。
我々は、人気EDベンチマークにおいて、平均1.3F1ポイントの改善により、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-11-06T16:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。