論文の概要: Are Your Explanations Reliable? Investigating the Stability of LIME in
Explaining Textual Classification Models via Adversarial Perturbation
- arxiv url: http://arxiv.org/abs/2305.12351v1
- Date: Sun, 21 May 2023 05:06:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 21:13:38.789744
- Title: Are Your Explanations Reliable? Investigating the Stability of LIME in
Explaining Textual Classification Models via Adversarial Perturbation
- Title(参考訳): あなたの説明は信頼できますか?
逆摂動によるテキスト分類モデルの記述におけるLIMEの安定性の検討
- Authors: Christopher Burger, Lingwei Chen, Thai Le
- Abstract要約: ローカルサロゲートモデルは、多様な種類のデータに対する複雑なブラックボックスモデルを説明するために人気が高まっている。
特定のアルゴリズムであるLIMEは、本質的に解釈可能な説明とモデルに依存しない振る舞いのために、機械学習の分野における使用を引き続き見なしている。
本稿では,テキストデータから生成したLIMEの説明の安定性について検討し,他のデータ型に対する以前の研究で示された不安定性の傾向を確認する。
- 参考スコア(独自算出の注目度): 11.177907021870384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local Surrogate models have increased in popularity for use in explaining
complex black-box models for diverse types of data, including text, tabular,
and image. One particular algorithm, LIME, continues to see use within the
field of machine learning due to its inherently interpretable explanations and
model-agnostic behavior. But despite continued use, questions about the
stability of LIME persist. Stability, a property where similar instances result
in similar explanations, has been shown to be lacking in explanations generated
for tabular and image data, both of which are continuous domains. Here we
explore the stability of LIME's explanations generated on textual data and
confirm the trend of instability shown in previous research for other data
types.
- Abstract(参考訳): ローカルサロゲートモデルは、テキスト、表、画像を含む様々な種類のデータに対して複雑なブラックボックスモデルを説明するために使われるようになった。
特定のアルゴリズムであるLIMEは、本質的に解釈可能な説明とモデルに依存しない振る舞いのために、機械学習の分野における使用を引き続き見なしている。
しかし、継続使用にもかかわらず、LIMEの安定性に関する疑問は続いている。
類似したインスタンスが類似した説明を生じる性質である安定性は、表データと画像データの両方が連続ドメインであるような説明が欠如していることが示されている。
本稿では,テキストデータに基づくlimeの説明の安定性について検討し,他のデータ型に対する以前の研究で示された不安定性の動向を確認する。
関連論文リスト
- Vulnerability of LLMs to Vertically Aligned Text Manipulations [108.6908427615402]
大規模言語モデル(LLM)は、テキスト分類タスクの実行に非常に効果的である。
エンコーダベースのモデルのために単語を垂直に整列させるような入力形式を変更することは、テキスト分類タスクにおいてかなり精度を低下させる。
デコーダベースのLLMは、垂直フォーマットのテキスト入力と同じような脆弱性を示すか?
論文 参考訳(メタデータ) (2024-10-26T00:16:08Z) - SCENE: Evaluating Explainable AI Techniques Using Soft Counterfactuals [0.0]
本稿では,新たな評価手法であるSCENE(Soft Counterfactual Evaluation for Natural Language Explainability)を紹介する。
トークンベースの置換に焦点を当てることで、SCENEは文脈的に適切で意味論的に意味のあるソフトカウンタブルを作成する。
SCENEは様々なXAI技法の強みと限界についての貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T16:36:24Z) - CLAIM Your Data: Enhancing Imputation Accuracy with Contextual Large Language Models [0.18416014644193068]
本稿では,精度インプット法(CLAIM)の文脈言語モデルを提案する。
従来の計算法とは異なり、CLAIMは文脈に関連のある自然言語記述子を使用して、欠落した値を埋める。
多様なデータセットや欠落パターンに対する評価は,既存の計算手法よりもCLAIMの方が優れた性能を示している。
論文 参考訳(メタデータ) (2024-05-28T00:08:29Z) - LLM-Assisted Content Conditional Debiasing for Fair Text Embedding [37.92120550031469]
本稿では,公正なテキスト埋め込みを学習するための新しい手法を提案する。
テキスト埋め込みのための新しい内容条件等距離(CCED)フェアネスを定義する。
また,異なる感度属性を持つテキストの埋め込みが,対応する中性テキストの埋め込みから同じ距離を保っていることを保証するために,コンテンツ条件脱バイアス(CCD)の損失も導入する。
論文 参考訳(メタデータ) (2024-02-22T01:20:51Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - An xAI Approach for Data-to-Text Processing with ASP [39.58317527488534]
本稿では,xAI要求に準拠するフレームワークを提案する。
テキスト記述は階層的に整理され、テキストがさらに詳細で豊かになるトップダウン構造になっている。
自然言語記述の構造の生成も論理規則によって管理される。
論文 参考訳(メタデータ) (2023-08-30T09:09:09Z) - Watermarking Conditional Text Generation for AI Detection: Unveiling
Challenges and a Semantic-Aware Watermark Remedy [52.765898203824975]
本研究では,条件付きテキスト生成と入力コンテキストの特性を考慮した意味認識型透かしアルゴリズムを提案する。
実験結果から,提案手法は様々なテキスト生成モデルに対して大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-25T20:24:22Z) - Revisiting the Roles of "Text" in Text Games [102.22750109468652]
本稿では,強化学習におけるテキストの役割について検討する。
本稿では,関連するコンテキスト情報を近似状態ハッシュに抽出する簡単な手法を提案する。
このような軽量なプラグインは最先端のテキストエージェントとの競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-15T21:52:39Z) - Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA [85.17249272519626]
最適化された OpenQA Table-Text Retriever (OTTeR) を提案する。
検索中心の混合モード合成事前学習を行う。
OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に改善する。
論文 参考訳(メタデータ) (2022-10-11T07:04:39Z) - SUN: Exploring Intrinsic Uncertainties in Text-to-SQL Parsers [61.48159785138462]
本稿では,ニューラルネットワークに基づくアプローチ(SUN)における本質的な不確かさを探索することにより,テキストから依存への変換性能を向上させることを目的とする。
5つのベンチマークデータセットの大規模な実験により、我々の手法は競合より大幅に優れ、新しい最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-09-14T06:27:51Z) - Why model why? Assessing the strengths and limitations of LIME [0.0]
本稿では,LIME(Local Interpretable Model-Agnostic Explanations) xAIフレームワークの有効性について検討する。
LIMEは、文献で見られる最も人気のあるモデルに依存しないフレームワークの1つである。
従来の性能評価手法を補うためにLIMEをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2020-11-30T21:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。