論文の概要: Which LIME should I trust? Concepts, Challenges, and Solutions
- arxiv url: http://arxiv.org/abs/2503.24365v1
- Date: Mon, 31 Mar 2025 17:44:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:37:51.171673
- Title: Which LIME should I trust? Concepts, Challenges, and Solutions
- Title(参考訳): どれを信頼すべきか? 概念、課題、解決策
- Authors: Patrick Knab, Sascha Marton, Udo Schlegel, Christian Bartelt,
- Abstract要約: LIME(Local Interpretable Model-Agnostic Explanations)は、最も顕著なモデル-Agnosticアプローチの一つである。
その人気にもかかわらず、LIMEはドメイン固有の問題に対する忠実さ、安定性、適用性に関連する課題に直面している。
LIMEの基本概念と既知の制限を包括的に探求し、収集する最初の調査である。
- 参考スコア(独自算出の注目度): 3.1348839095556125
- License:
- Abstract: As neural networks become dominant in essential systems, Explainable Artificial Intelligence (XAI) plays a crucial role in fostering trust and detecting potential misbehavior of opaque models. LIME (Local Interpretable Model-agnostic Explanations) is among the most prominent model-agnostic approaches, generating explanations by approximating the behavior of black-box models around specific instances. Despite its popularity, LIME faces challenges related to fidelity, stability, and applicability to domain-specific problems. Numerous adaptations and enhancements have been proposed to address these issues, but the growing number of developments can be overwhelming, complicating efforts to navigate LIME-related research. To the best of our knowledge, this is the first survey to comprehensively explore and collect LIME's foundational concepts and known limitations. We categorize and compare its various enhancements, offering a structured taxonomy based on intermediate steps and key issues. Our analysis provides a holistic overview of advancements in LIME, guiding future research and helping practitioners identify suitable approaches. Additionally, we provide a continuously updated interactive website (https://patrick-knab.github.io/which-lime-to-trust/), offering a concise and accessible overview of the survey.
- Abstract(参考訳): ニューラルネットワークが本質的なシステムで支配的になるにつれ、説明可能な人工知能(XAI)は、不透明モデルの信頼性を高め、潜在的な不適切な行動を検出する上で重要な役割を担っている。
LIME(Local Interpretable Model-Agnostic Explanations)は、特定のインスタンスを取り巻くブラックボックスモデルの振る舞いを近似することにより、モデルに依存しない最も顕著なアプローチの一つである。
その人気にもかかわらず、LIMEはドメイン固有の問題に対する忠実さ、安定性、適用性に関連する課題に直面している。
これらの問題に対処するために、多くの適応と拡張が提案されているが、LIME関連の研究をナビゲートするための努力が複雑化して、開発が増加することは圧倒的に多い。
我々の知る限りでは、LIMEの基本概念と既知の制限を包括的に探求し、収集する最初の調査である。
我々は、その様々な拡張を分類し比較し、中間段階と重要な問題に基づく構造的分類を提供する。
我々の分析は、LIMEの進歩を概観し、将来の研究を指導し、実践者が適切なアプローチを特定するのを助ける。
さらに、継続的に更新されたインタラクティブWebサイト(https://patrick-knab.github.io/which-lime-to-trust/)も提供しています。
関連論文リスト
- LLMs in Software Security: A Survey of Vulnerability Detection Techniques and Insights [12.424610893030353]
大規模言語モデル(LLM)は、ソフトウェア脆弱性検出のためのトランスフォーメーションツールとして登場している。
本稿では,脆弱性検出におけるLSMの詳細な調査を行う。
言語間の脆弱性検出、マルチモーダルデータ統合、リポジトリレベルの分析といった課題に対処する。
論文 参考訳(メタデータ) (2025-02-10T21:33:38Z) - Survey on AI-Generated Media Detection: From Non-MLLM to MLLM [51.91311158085973]
AI生成メディアを検出する方法は急速に進化してきた。
MLLMに基づく汎用検出器は、信頼性検証、説明可能性、ローカライゼーション機能を統合する。
倫理的・セキュリティ的な配慮が、重要な世界的な懸念として浮上している。
論文 参考訳(メタデータ) (2025-02-07T12:18:20Z) - Enhancing LLM Reasoning with Reward-guided Tree Search [95.06503095273395]
o1のような推論アプローチは困難で、研究者はこのオープンな研究領域を前進させようとさまざまな試みを行ってきた。
本稿では,報酬誘導木探索アルゴリズムを用いて,LLMの推論能力を高めるための予備的な検討を行う。
論文 参考訳(メタデータ) (2024-11-18T16:15:17Z) - Latent Feature Mining for Predictive Model Enhancement with Large Language Models [2.6334346517416876]
本稿では,テキストからテキストへの命題論理的推論として潜在特徴抽出を定式化するための効果的なアプローチを提案する。
本稿では,大規模言語モデル (LLM) を利用した潜在機能付き観測機能拡張フレームワークであるFLAMEを提案する。
この枠組みを刑事司法制度と医療領域の2つのケーススタディで検証する。
論文 参考訳(メタデータ) (2024-10-06T03:51:32Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - Gradient based Feature Attribution in Explainable AI: A Technical Review [13.848675695545909]
ブラックボックスAIモデルの急増は、内部メカニズムを説明し、信頼性を正当化する必要性を喚起している。
勾配に基づく説明は、ニューラルネットワークモデルに直接適用することができる。
アルゴリズムの性能を測定するために,人的評価と定量的評価の両方を導入する。
論文 参考訳(メタデータ) (2024-03-15T15:49:31Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - Stable and Interpretable Deep Learning for Tabular Data: Introducing
InterpreTabNet with the Novel InterpreStability Metric [4.362293468843233]
分類精度と解釈可能性の両方を向上するモデルであるInterpreTabNetを導入する。
また,モデルの解釈可能性の安定性を定量的に評価する新しい評価指標であるInterpreStabilityを提案する。
論文 参考訳(メタデータ) (2023-10-04T15:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。