論文の概要: SyntaxShap: Syntax-aware Explainability Method for Text Generation
- arxiv url: http://arxiv.org/abs/2402.09259v1
- Date: Wed, 14 Feb 2024 15:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 14:42:09.629747
- Title: SyntaxShap: Syntax-aware Explainability Method for Text Generation
- Title(参考訳): SyntaxShap: テキスト生成のための構文認識説明可能性法
- Authors: Kenza Amara, Rita Sevastjanova, Mennatallah El-Assady
- Abstract要約: 本稿では,テキスト生成のためのモデルに依存しない説明可能性手法であるSyntaxShapを紹介する。
本手法は,自己回帰モデルによる予測に対する,より忠実で一貫性があり,解釈可能な説明を構築するのに役立つ説明を生成する。
- 参考スコア(独自算出の注目度): 13.58740137596652
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: To harness the power of large language models in safety-critical domains we
need to ensure the explainability of their predictions. However, despite the
significant attention to model interpretability, there remains an unexplored
domain in explaining sequence-to-sequence tasks using methods tailored for
textual data. This paper introduces SyntaxShap, a local, model-agnostic
explainability method for text generation that takes into consideration the
syntax in the text data. The presented work extends Shapley values to account
for parsing-based syntactic dependencies. Taking a game theoric approach,
SyntaxShap only considers coalitions constraint by the dependency tree. We
adopt a model-based evaluation to compare SyntaxShap and its weighted form to
state-of-the-art explainability methods adapted to text generation tasks, using
diverse metrics including faithfulness, complexity, coherency, and semantic
alignment of the explanations to the model. We show that our syntax-aware
method produces explanations that help build more faithful, coherent, and
interpretable explanations for predictions by autoregressive models.
- Abstract(参考訳): 安全クリティカルドメインにおける大規模言語モデルのパワーを活用するためには、それらの予測の説明可能性を保証する必要がある。
しかしながら、モデル解釈可能性に大きな注意が払われているにもかかわらず、テキストデータ用に調整されたメソッドを使用してシーケンスからシーケンスへのタスクを説明するための未検討領域は残されている。
本稿では,テキストデータの構文を考慮したテキスト生成のための局所的モデル非依存説明可能性であるsyntaxshapを提案する。
提案された作業は、解析ベースの構文依存を考慮したShapley値を拡張する。
ゲーム理論のアプローチをとると、syntaxshapは依存関係ツリーによる結合制約のみを考慮に入れる。
本稿では,テキスト生成タスクに適応した構文shapとその重み付け形式を,説明文の忠実性,複雑性,一貫性,意味的アライメントといった多様な指標を用いて,テキスト生成タスクに適応した最先端説明可能性手法と比較するモデルベース評価手法を提案する。
本手法は, 自己回帰モデルによる予測に対して, より忠実で一貫性があり, 解釈可能な説明を生成できることを示す。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Interpreting Vision and Language Generative Models with Semantic Visual
Priors [3.3772986620114374]
我々は、出力シーケンス全体の意味表現を活用する意味のある説明を生成できるSHAPに基づくフレームワークを開発する。
提案手法は,従来の手法よりも計算コストが低く,意味論的に表現力に富んだ説明を生成する。
論文 参考訳(メタデータ) (2023-04-28T17:10:08Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - Saliency Map Verbalization: Comparing Feature Importance Representations
from Model-free and Instruction-based Methods [6.018950511093273]
サージェンシマップは、重要な入力特徴を特定することによって、ニューラルネットワークの予測を説明することができる。
我々は,サリエンシマップを自然言語に翻訳する未調査課題を定式化する。
本研究では,従来の特徴強調表現と比較した2つの新手法(検索ベースおよび命令ベース言語化)を比較した。
論文 参考訳(メタデータ) (2022-10-13T17:48:15Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Syntax-Enhanced Pre-trained Model [49.1659635460369]
BERTやRoBERTaなどの学習済みモデルを強化するために、テキストの構文構造を活用するという問題を研究する。
既存の手法では、事前学習段階または微調整段階のいずれかでテキストの構文を利用しており、両者の区別に苦しむ。
事前学習と微調整の両方の段階でテキストのシンタックスを利用するモデルを提示する。
論文 参考訳(メタデータ) (2020-12-28T06:48:04Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Emergence of Syntax Needs Minimal Supervision [0.0]
本論は,構文特異的ガイダンスを含まないコーパスからの構文の学習性に関する議論に理論的に寄与する。
提案手法は,文法的情報(シンタクティック情報)と意味・実践的情報を定義するために用いられるコーパスの可観測構造から導かれる。
論文 参考訳(メタデータ) (2020-05-03T15:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。