論文の概要: Teach Me to Explain: A Review of Datasets for Explainable NLP
- arxiv url: http://arxiv.org/abs/2102.12060v1
- Date: Wed, 24 Feb 2021 04:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 03:18:47.437553
- Title: Teach Me to Explain: A Review of Datasets for Explainable NLP
- Title(参考訳): Teach Me to Explain: A Review of Datasets for Explainable NLP
- Authors: Sarah Wiegreffe and Ana Marasovi\'c
- Abstract要約: 説明可能なNLP(ExNLP)は、人間の注釈付き説明の収集にますます注力しています。
これらの説明は、予測タスクのパフォーマンスを改善するためのデータ拡張、モデルに予測を説明するための説明を訓練するための損失信号、モデル生成された説明の品質を評価する手段として、下流の3つの方法で使用される。
本稿では,3つの主要な説明クラス(highlights,free-text,structured)を特定し,各型に注釈を付けて文献を整理し,これまでに学んだことを指摘し,将来的にはexnlpデータセットの収集を推奨する。
- 参考スコア(独自算出の注目度): 6.256505195819595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable NLP (ExNLP) has increasingly focused on collecting
human-annotated explanations. These explanations are used downstream in three
ways: as data augmentation to improve performance on a predictive task, as a
loss signal to train models to produce explanations for their predictions, and
as a means to evaluate the quality of model-generated explanations. In this
review, we identify three predominant classes of explanations (highlights,
free-text, and structured), organize the literature on annotating each type,
point to what has been learned to date, and give recommendations for collecting
ExNLP datasets in the future.
- Abstract(参考訳): 説明可能なNLP(ExNLP)は、人間の注釈付き説明の収集にますます注力しています。
これらの説明は、予測タスクのパフォーマンスを改善するためのデータ拡張、モデルに予測を説明するための説明を訓練するための損失信号、モデル生成された説明の品質を評価する手段として、下流の3つの方法で使用される。
本稿では,3つの主要な説明クラス(highlights,free-text,structured)を特定し,各型に注釈を付けて文献を整理し,これまでに学んだことを指摘し,将来的にはexnlpデータセットの収集を推奨する。
関連論文リスト
- LETA: Learning Transferable Attribution for Generic Vision Explainer [78.96465840557056]
大規模画像データセットの汎用的説明器を開発し、その伝達可能性を活用して、下流タスクの様々な視覚モデルを説明する。
LETAは、ジェネリック・アナトリビューションに対するジェネリック・アナトリビュータの事前トレーニングをガイドし、下流のタスクを説明するために、トランストリビュータのルールベースの適応を導入する。
実験結果から,LETAは下流タスクのデータに対する追加トレーニングを必要とせず,これらのタスクを説明するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-12-23T21:49:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Robust Ante-hoc Graph Explainer using Bilevel Optimization [6.209266270867095]
RAGE(Robust Ante-hoc Graph Explainer)は、幅広い種類のグラフニューラルネットワークの説明を見つけるように設計されている。
グラフ分類と回帰に基づく実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも堅牢であることが示された。
論文 参考訳(メタデータ) (2023-05-25T05:50:38Z) - ExaRanker: Explanation-Augmented Neural Ranker [67.4894325619275]
本研究は,ニューラルランサーが説明の恩恵を受けることを示す。
我々は、GPT-3.5のようなLCMを用いて、説明付き検索データセットを増強する。
ExaRankerと呼ばれる私たちのモデルは、数千の例で微調整され、合成説明は、説明なしで3倍の例で微調整されたモデルと同等に実行される。
論文 参考訳(メタデータ) (2023-01-25T11:03:04Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Re-Examining Human Annotations for Interpretable NLP [80.81532239566992]
我々は、Interpretable NLPで広く使われている2つのデータセット上で、クラウドソースのウェブサイトを用いて制御実験を行う。
我々は,異なる資格レベルを満たす人材の募集から得られた注釈結果を比較した。
以上の結果から,アノテーションの品質は労働者の資格に高い影響を受けており,労働者は指示によって特定のアノテーションを提供するように指導することができることがわかった。
論文 参考訳(メタデータ) (2022-04-10T02:27:30Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Diagnostics-Guided Explanation Generation [32.97930902104502]
説明は機械学習モデルの合理性に光を当て、推論プロセスにおける欠陥の特定に役立ちます。
文レベルの説明を生成するためにモデルを訓練する際、いくつかの診断特性を最適化する方法を示す。
論文 参考訳(メタデータ) (2021-09-08T16:27:52Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。