論文の概要: Explaining with Contrastive Phrasal Highlighting: A Case Study in
Assisting Humans to Detect Translation Differences
- arxiv url: http://arxiv.org/abs/2312.01582v1
- Date: Mon, 4 Dec 2023 02:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 16:34:07.026237
- Title: Explaining with Contrastive Phrasal Highlighting: A Case Study in
Assisting Humans to Detect Translation Differences
- Title(参考訳): コントラスト・フェーラル・ライティングによる説明:翻訳の相違を検知するための人間支援の事例研究
- Authors: Eleftheria Briakou, Navita Goyal, Marine Carpuat
- Abstract要約: 2つの入力テキストを比較して予測を行うNLPモデルでは、"この予測を説明する2つの入力の違いは何か?
我々は、フレーズアライメント誘導消去により意味分岐モデルの予測を説明する対照的なハイライトを生成する。
- 参考スコア(独自算出の注目度): 27.098752170374674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable NLP techniques primarily explain by answering "Which tokens in
the input are responsible for this prediction?''. We argue that for NLP models
that make predictions by comparing two input texts, it is more useful to
explain by answering "What differences between the two inputs explain this
prediction?''. We introduce a technique to generate contrastive highlights that
explain the predictions of a semantic divergence model via
phrase-alignment-guided erasure. We show that the resulting highlights match
human rationales of cross-lingual semantic differences better than popular
post-hoc saliency techniques and that they successfully help people detect
fine-grained meaning differences in human translations and critical machine
translation errors.
- Abstract(参考訳): 説明可能なNLP手法は、主に「入力中のトークンがこの予測に責任があるか?」と答えることによって説明できる。我々は、2つの入力テキストを比較して予測を行うNLPモデルについて、「この予測を説明する2つの入力の違いは何か?」と答えることにより、より有用であると主張している。
本稿では,フレーズアライメント誘導消去による意味分岐モデルの予測を記述したコントラストハイライトを生成する手法を提案する。
その結果,言語間の意味的差異の人的根拠は,一般的なポストホック・サリエンシ・テクニックよりもよく一致し,人間の翻訳における微妙な意味的差異や重要な機械翻訳誤りを検出するのに有効であることが示された。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Interpreting BERT-based Text Similarity via Activation and Saliency Maps [26.279593839644836]
本稿では,事前学習したBERTモデルから推定される段落類似性を説明するための教師なし手法を提案する。
一対の段落を見ると,各段落の意味を規定する重要な単語を識別し,各段落間の単語の一致を判定し,両者の類似性を説明する最も重要なペアを検索する。
論文 参考訳(メタデータ) (2022-08-13T10:06:24Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Perturbing Inputs for Fragile Interpretations in Deep Natural Language
Processing [18.91129968022831]
解釈可能性の手法は、医療や金融などの高い分野における信頼できるNLPアプリケーションにとって堅牢である必要がある。
本稿では,入力テキスト上で単純な単語摂動を行うことで,解釈がどのように操作できるかを示す。
論文 参考訳(メタデータ) (2021-08-11T02:07:21Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Are Interpretations Fairly Evaluated? A Definition Driven Pipeline for
Post-Hoc Interpretability [54.85658598523915]
我々は,解釈の忠実性を評価する前に,解釈を明確に定義することを提案する。
解釈手法は,ある評価基準の下で異なる性能を示すが,その差は解釈の品質や忠実さから生じるものではない。
論文 参考訳(メタデータ) (2020-09-16T06:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。