論文の概要: Improving Robustness Estimates in Natural Language Explainable AI though Synonymity Weighted Similarity Measures
- arxiv url: http://arxiv.org/abs/2501.01516v1
- Date: Thu, 02 Jan 2025 19:49:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:12:38.865428
- Title: Improving Robustness Estimates in Natural Language Explainable AI though Synonymity Weighted Similarity Measures
- Title(参考訳): 類似度重み付き類似度尺度を用いた自然言語説明型AIにおけるロバストネス推定の改善
- Authors: Christopher Burger,
- Abstract要約: 敵の例は、XAIの有効性を取り巻く文献で顕著である。
自然言語による説明については,情報検索の領域で見られる尺度をランク付けされたリストで用いるのが自然である。
これらの尺度の標準実装は、敵のXAIにおける説明の比較にはあまり適していないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Explainable AI (XAI) has seen a surge in recent interest with the proliferation of powerful but intractable black-box models. Moreover, XAI has come under fire for techniques that may not offer reliable explanations. As many of the methods in XAI are themselves models, adversarial examples have been prominent in the literature surrounding the effectiveness of XAI, with the objective of these examples being to alter the explanation while maintaining the output of the original model. For explanations in natural language, it is natural to use measures found in the domain of information retrieval for use with ranked lists to guide the adversarial XAI process. We show that the standard implementation of these measures are poorly suited for the comparison of explanations in adversarial XAI and amend them by using information that is discarded, the synonymity of perturbed words. This synonymity weighting produces more accurate estimates of the actual weakness of XAI methods to adversarial examples.
- Abstract(参考訳): 説明可能なAI(XAI)は、強力だが難解なブラックボックスモデルの普及により、近年の関心が高まっている。
さらに、XAIは信頼性の低い説明を提供していない技術に対して非難を浴びている。
XAIの手法の多くはモデルであるので、XAIの有効性を取り巻く文献では敵の例が顕著であり、これらの例は原モデルの出力を維持しながら説明を変更することを目的としている。
自然言語での説明では、情報検索の領域で見つかった測度をランクリストで用いて、敵のXAIプロセスを導くことは自然である。
これらの手法の標準実装は、敵のXAIにおける説明の比較に不適であり、破棄された情報、混乱した単語の同義性を用いて修正されていることを示す。
この同義語重み付けは、XAI法の実際の弱点をより正確に推定する。
関連論文リスト
- Towards Robust and Accurate Stability Estimation of Local Surrogate Models in Text-based Explainable AI [9.31572645030282]
NLP領域における説明可能なAI(XAI)に対する敵攻撃では、生成された説明が操作される。
このXAI操作の中心は、ある説明が他の説明とどのように異なるかを計算するのに使用される類似度尺度である。
本研究は,テキストベースのランキングリストを対象とした類似度尺度について検討し,その使用適性について検討した。
論文 参考訳(メタデータ) (2025-01-03T17:44:57Z) - The Effect of Similarity Measures on Accurate Stability Estimates for Local Surrogate Models in Text-based Explainable AI [8.23094630594374]
類似度尺度の貧弱な選択は、XAI法の有効性に関する誤った結論につながる可能性がある。
我々は、ケンドールのタウ、スピアマンのフットルル、ランクバイアスオーバーラップなど、テキストベースのランクリスト用に設計された様々な類似度尺度について検討する。
論文 参考訳(メタデータ) (2024-06-22T12:59:12Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Assessing Fidelity in XAI post-hoc techniques: A Comparative Study with
Ground Truth Explanations Datasets [0.0]
入力への出力情報のバックプロパゲーションに基づくXAI手法により精度と信頼性が向上する。
バックプロパゲーション法は、よりノイズの多いサリエンシマップを生成する傾向がある。
発見はXAI法の進歩に重要な意味を持つ。
論文 参考訳(メタデータ) (2023-11-03T14:57:24Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Theoretical Behavior of XAI Methods in the Presence of Suppressor
Variables [0.8602553195689513]
近年,「説明可能な人工知能(XAI)」のコミュニティは,モデル「複雑性」と「解釈可能性」のギャップを埋めるための膨大な手法を生み出している。
本研究のアプローチの大部分は, 相関雑音の存在下での非クラス関連抑制機能に非ゼロの重要性が寄与すると考えられる。
論文 参考訳(メタデータ) (2023-06-02T11:41:19Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Data Representing Ground-Truth Explanations to Evaluate XAI Methods [0.0]
現在、説明可能な人工知能(XAI)手法は、主に解釈可能な機械学習(IML)研究に由来するアプローチで評価されている。
本稿では,XAI手法の精度を評価するために用いられる正準方程式を用いた説明法を提案する。
論文 参考訳(メタデータ) (2020-11-18T16:54:53Z) - Contextualized Perturbation for Textual Adversarial Attack [56.370304308573274]
逆例は自然言語処理(NLP)モデルの脆弱性を明らかにする。
本稿では,フロートおよび文法的出力を生成するContextualized AdversaRial Example生成モデルであるCLAREを提案する。
論文 参考訳(メタデータ) (2020-09-16T06:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。