論文の概要: Transparent Neighborhood Approximation for Text Classifier Explanation
- arxiv url: http://arxiv.org/abs/2411.16251v1
- Date: Mon, 25 Nov 2024 10:10:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:23:52.188819
- Title: Transparent Neighborhood Approximation for Text Classifier Explanation
- Title(参考訳): テキスト分類器記述のための透過的近傍近似
- Authors: Yi Cai, Arthur Zimek, Eirini Ntoutsi, Gerhard Wunder,
- Abstract要約: 本稿では,ブラックボックステキストジェネレータの代替として,確率ベースの編集手法を提案する。
提案手法であるXPROBは,実世界の2つのデータセットで行った評価に基づいて,競争性能を示す。
- 参考スコア(独自算出の注目度): 12.803856207094615
- License:
- Abstract: Recent literature highlights the critical role of neighborhood construction in deriving model-agnostic explanations, with a growing trend toward deploying generative models to improve synthetic instance quality, especially for explaining text classifiers. These approaches overcome the challenges in neighborhood construction posed by the unstructured nature of texts, thereby improving the quality of explanations. However, the deployed generators are usually implemented via neural networks and lack inherent explainability, sparking arguments over the transparency of the explanation process itself. To address this limitation while preserving neighborhood quality, this paper introduces a probability-based editing method as an alternative to black-box text generators. This approach generates neighboring texts by implementing manipulations based on in-text contexts. Substituting the generator-based construction process with recursive probability-based editing, the resultant explanation method, XPROB (explainer with probability-based editing), exhibits competitive performance according to the evaluation conducted on two real-world datasets. Additionally, XPROB's fully transparent and more controllable construction process leads to superior stability compared to the generator-based explainers.
- Abstract(参考訳): 近年の文献では, モデルに依存しない説明の導出において, 近隣構造が重要な役割を担っていることが強調されている。
これらのアプローチは、テキストの構造化されていない性質によって生じる近隣構築の課題を克服し、説明の質を向上させる。
しかしながら、デプロイされたジェネレータは通常、ニューラルネットワークを介して実装され、固有の説明可能性がないため、説明プロセス自体の透明性に関する議論が引き起こされる。
この制限に対処するために,ブラックボックステキストジェネレータの代替として,確率ベースの編集手法を提案する。
このアプローチは、テキスト内コンテキストに基づいた操作を実装することによって、隣接するテキストを生成する。
再帰的確率ベース編集によるジェネレータベース構築プロセスに代えて,提案手法であるXPROB (Explainer with probability-based editing) は,実世界の2つのデータセットで行った評価に基づいて,競合性能を示す。
さらに、XPROBの完全透明で制御可能な構造プロセスは、ジェネレータベースの説明装置に比べて安定性に優れる。
関連論文リスト
- Decoding Report Generators: A Cyclic Vision-Language Adapter for Counterfactual Explanations [7.163217901775776]
本稿では,レポート生成モデルにより生成されたテキストの説明可能性を高めるための革新的なアプローチを提案する。
本手法では, 周期的テキスト操作と視覚的比較を用いて, オリジナルコンテンツの特徴を識別し, 解明する。
本稿は,AIレポートの解釈可能性と透明性を向上する手法の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-08T01:46:11Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Efficient Guided Generation for Large Language Models [0.21485350418225244]
本稿では, 有限状態マシンの状態間の遷移の観点から, ニューラルテキスト生成の問題を構成的に再構成する方法を示す。
このフレームワークは、正規表現と文脈自由文法でテキスト生成を導くための効率的なアプローチをもたらす。
論文 参考訳(メタデータ) (2023-07-19T01:14:49Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Explaining text classifiers through progressive neighborhood
approximation with realistic samples [19.26084350822197]
地域説明手法における地区建設の重要性が文献で強調されている。
高次元データ(例えばテキスト)の近傍品質を改善するために、生成モデルを採用するなど、いくつかの試みがなされている。
提案手法は,2段階の慎重なアプローチにより,説明すべき決定の近傍を洗練させるプログレッシブ近似手法を提案する。
論文 参考訳(メタデータ) (2023-02-11T11:42:39Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Contextualized Perturbation for Textual Adversarial Attack [56.370304308573274]
逆例は自然言語処理(NLP)モデルの脆弱性を明らかにする。
本稿では,フロートおよび文法的出力を生成するContextualized AdversaRial Example生成モデルであるCLAREを提案する。
論文 参考訳(メタデータ) (2020-09-16T06:53:15Z) - Syntax-driven Iterative Expansion Language Models for Controllable Text
Generation [2.578242050187029]
本稿では,ニューラルテキスト生成に構文的帰納バイアスを導入するための新しいパラダイムを提案する。
実験の結果,このパラダイムはテキスト生成に有効であり,LSTMとトランスフォーマーの質と同等の多様性を持つことがわかった。
論文 参考訳(メタデータ) (2020-04-05T14:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。