論文の概要: A survey on improving NLP models with human explanations
- arxiv url: http://arxiv.org/abs/2204.08892v1
- Date: Tue, 19 Apr 2022 13:43:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 16:41:57.898726
- Title: A survey on improving NLP models with human explanations
- Title(参考訳): 人間の説明によるNLPモデルの改良に関する調査
- Authors: Mareike Hartmann and Daniel Sonntag
- Abstract要約: 人間の説明にアクセス可能なモデルをトレーニングすることで、ドメイン内および外部データ上でのデータ効率とモデルパフォーマンスを向上させることができる。
人間の学習のプロセスと類似することで、説明から学ぶことは、実りある人間と機械の相互作用を確立するための有望な方法となる。
- 参考スコア(独自算出の注目度): 10.14196008734383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training a model with access to human explanations can improve data
efficiency and model performance on in- and out-of-domain data. Adding to these
empirical findings, similarity with the process of human learning makes
learning from explanations a promising way to establish a fruitful
human-machine interaction. Several methods have been proposed for improving
natural language processing (NLP) models with human explanations, that rely on
different explanation types and mechanism for integrating these explanations
into the learning process. These methods are rarely compared with each other,
making it hard for practitioners to choose the best combination of explanation
type and integration mechanism for a specific use-case. In this paper, we give
an overview of different methods for learning from human explanations, and
discuss different factors that can inform the decision of which method to
choose for a specific use-case.
- Abstract(参考訳): 人間の説明にアクセス可能なモデルをトレーニングすることで、ドメイン内および外部データ上でのデータ効率とモデルパフォーマンスを向上させることができる。
これらの経験的な発見に加え、人間の学習プロセスと類似性は、説明から学ぶことが有能な人間と機械の相互作用を確立するための有望な方法である。
人間の説明による自然言語処理(nlp)モデルを改善するためのいくつかの方法が提案されており、異なる説明タイプとこれらの説明を学習プロセスに統合するメカニズムに依存している。
これらの方法が互いに比較されることは滅多になく、特定のユースケースに対して説明タイプと統合メカニズムの最適な組み合わせを選択することが困難になる。
本稿では,人間の説明から学ぶための異なる方法を概観し,特定のユースケースにどの方法を選択するべきかを判断できるさまざまな要因について考察する。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Exploring the Trade-off Between Model Performance and Explanation Plausibility of Text Classifiers Using Human Rationales [3.242050660144211]
ホック後説明可能性法は、ますます複雑なNLPモデルを理解するための重要なツールである。
本稿では,人間の判断を説明するテキストアノテーションをテキスト分類モデルに組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:39:33Z) - Explainability for Machine Learning Models: From Data Adaptability to
User Perception [0.8702432681310401]
この論文は、すでにデプロイされた機械学習モデルに対する局所的な説明の生成を探求する。
データとユーザ要件の両方を考慮して、意味のある説明を生み出すための最適な条件を特定することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T18:44:37Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - MaNtLE: Model-agnostic Natural Language Explainer [9.43206883360088]
モデルに依存しない自然言語説明器であるMaNtLEを導入し、複数の分類器の予測を解析する。
MaNtLEは、何千もの合成分類タスクでマルチタスクトレーニングを使用して、忠実な説明を生成する。
シミュレーションユーザスタディでは、平均して、MaNtLEの生成した説明は、LIMEやAnchorsの説明に比べて少なくとも11%忠実であることが示されている。
論文 参考訳(メタデータ) (2023-05-22T12:58:06Z) - Testing the effectiveness of saliency-based explainability in NLP using
randomized survey-based experiments [0.6091702876917281]
Explainable AIにおける多くの研究は、NLPモデルの動作と予測に関する人間の洞察を与える説明方法を考案することを目的としている。
自然に人間の傾向やバイアスは、人間の説明を理解するのに役立ちます。
自然言語処理におけるサリエンシに基づくポストホック説明可能性手法の有効性を理解するために,ランダム化されたサーベイベース実験を設計した。
論文 参考訳(メタデータ) (2022-11-25T08:49:01Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - The Explanation Game: Towards Prediction Explainability through Sparse
Communication [6.497816402045099]
我々は,説明責任の統一的な視点を,説明者と素人の間の問題として提供する。
このフレームワークを使って、説明の抽出にいくつかの先行したアプローチを比較します。
本稿では,選択的,スパースな注意力を用いて,説明可能性のための新しい組込み手法を提案する。
論文 参考訳(メタデータ) (2020-04-28T22:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。