論文の概要: s-LIME: Reconciling Locality and Fidelity in Linear Explanations
- arxiv url: http://arxiv.org/abs/2208.01510v1
- Date: Tue, 2 Aug 2022 14:55:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:33:42.302291
- Title: s-LIME: Reconciling Locality and Fidelity in Linear Explanations
- Title(参考訳): s-lime:線形説明における局所性と忠実性の調和
- Authors: Romaric Gaudel (ENSAI, CREST), Luis Gal\'arraga (LACODAM, IRISA),
Julien Delaunay (UNIV-RENNES, LACODAM, IRISA), Laurence Roz\'e (INSA Rennes,
IRISA, LACODAM), Vaishnavi Bhargava
- Abstract要約: LIME説明の忠実度と意味性に及ぼす帯域幅とトレーニング近傍の影響について検討した。
我々は, 忠実度と局所性を両立するLIMEの拡張であるスライムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The benefit of locality is one of the major premises of LIME, one of the most
prominent methods to explain black-box machine learning models. This emphasis
relies on the postulate that the more locally we look at the vicinity of an
instance, the simpler the black-box model becomes, and the more accurately we
can mimic it with a linear surrogate. As logical as this seems, our findings
suggest that, with the current design of LIME, the surrogate model may
degenerate when the explanation is too local, namely, when the bandwidth
parameter $\sigma$ tends to zero. Based on this observation, the contribution
of this paper is twofold. Firstly, we study the impact of both the bandwidth
and the training vicinity on the fidelity and semantics of LIME explanations.
Secondly, and based on our findings, we propose \slime, an extension of LIME
that reconciles fidelity and locality.
- Abstract(参考訳): ローカリティの利点は、ブラックボックス機械学習モデルを説明する最も顕著な方法の1つであるLIMEの主要な前提の1つである。
この強調は、インスタンスの近傍をローカルに見るほど、ブラックボックスモデルがよりシンプルになり、より正確にそれを線形サロゲートで模倣できるという仮定に依存している。
理論的には、現在のlimeの設計では、説明が局所的すぎる場合、すなわち帯域幅パラメータ$\sigma$がゼロになる場合、サロゲートモデルは縮退する可能性があることを示唆している。
この観察に基づくと、この論文の貢献は2倍になる。
まず,lime説明の忠実性と意味性に及ぼす帯域幅とトレーニング周辺の影響について検討した。
第2に,本研究で得られた知見に基づいて,忠実度と局所性を両立するLIMEの拡張であるShaslimeを提案する。
関連論文リスト
- OCEAN: Offline Chain-of-thought Evaluation and Alignment in Large Language Models [68.17018458283651]
本研究は,LLMのチェーン・オブ・思想能力のオフライン評価に焦点をあてる。
我々は知識グラフ(例えばWikidata5m)を使って、生成された思考の連鎖に対するフィードバックを提供する。
提案手法に基づいてLCMを最適化する方法を示す。
論文 参考訳(メタデータ) (2024-10-31T07:48:44Z) - Quantifying Emergence in Large Language Models [31.608080868988825]
LLMの出現を推定するための定量化ソリューションを提案する。
分子動力学における創発性に着想を得て, ミクロ(トケン)レベルのエントロピー低減とミクロ(セマンティック)レベルのエントロピー低減を比較して, 出現の強さを定量化する。
本手法は,テキスト内学習(ICL)と自然文の両方で,一貫した振る舞いを示す。
論文 参考訳(メタデータ) (2024-05-21T09:12:20Z) - Can Small Language Models Help Large Language Models Reason Better?: LM-Guided Chain-of-Thought [51.240387516059535]
タスク推論において,ブラックボックスの大きな (>10B) LMを導くために,軽量 (すなわち 1B) 言語モデル (LM) を利用する新しいフレームワーク LM-Guided CoT を導入する。
1)知識蒸留と2)合理性指向とタスク指向の報酬信号からの強化学習を通してモデルを最適化する。
論文 参考訳(メタデータ) (2024-04-04T12:46:37Z) - Understanding Probe Behaviors through Variational Bounds of Mutual
Information [53.520525292756005]
情報理論を利用した新しい数学的枠組みを構築することで線形探索のガイドラインを提供する。
まず、プローブ設計を緩和するために、相互情報の変動境界(MI)と探索を結合し、線形探索と微調整を同一視する。
中間表現は、分離性の向上とMIの減少のトレードオフのため、最大のMI推定値を持つことが示される。
論文 参考訳(メタデータ) (2023-12-15T18:38:18Z) - GLIME: General, Stable and Local LIME Explanation [11.002828804775392]
LIME(Local Interpretable Model-Agnostic Explanations)は、モデル行動を理解するために広く用いられる手法である。
GLIMEは、LIMEを拡張し、いくつかの先行メソッドを統合する拡張フレームワークである。
局所的および非バイアスなサンプリング分布を用いることで、GLIMEはLIMEと比較して局所的忠実度の高い説明を生成する。
論文 参考訳(メタデータ) (2023-11-27T11:17:20Z) - BELLA: Black box model Explanations by Local Linear Approximations [10.05944106581306]
我々は、回帰ブラックボックスモデルの個々の予測を説明するために、決定論的モデルに依存しないポストホックアプローチであるBELLAを提案する。
BELLAは特徴空間で訓練された線形モデルという形で説明を提供する。
BELLAは事実と反事実の両方を説明することができる。
論文 参考訳(メタデータ) (2023-05-18T21:22:23Z) - Locally Invariant Explanations: Towards Stable and Unidirectional
Explanations through Local Invariant Learning [15.886405745163234]
不変リスク最小化原理に着想を得たモデル非依存的局所説明法を提案する。
我々のアルゴリズムは、訓練が簡単で効率的であり、サイド情報にアクセスすることなく、ブラックボックスの局所的な決定のための安定した入力機能を確認することができる。
論文 参考訳(メタデータ) (2022-01-28T14:29:25Z) - An Exponential Lower Bound for Linearly-Realizable MDPs with Constant
Suboptimality Gap [66.75488143823337]
また, 指数的標本複雑度は, 一定の準最適ギャップを仮定しても, 未だに保持していることを示した。
おそらく驚くことに、これはオンラインrl設定と生成モデル設定の指数関数的な分離を意味する。
論文 参考訳(メタデータ) (2021-03-23T17:05:54Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - What does LIME really see in images? [4.18804572788063]
LIMEはおそらく最も人気のあるInterpretabilityメソッドの1つである。
生成した例の数が多ければ, LIME の説明は限界説明を中心に集中することを示す。
本研究は,基本形状検出器と線形モデルについてさらに述べる。
論文 参考訳(メタデータ) (2021-02-11T23:18:53Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。