論文の概要: Rationalization for Explainable NLP: A Survey
- arxiv url: http://arxiv.org/abs/2301.08912v1
- Date: Sat, 21 Jan 2023 07:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:50:06.441341
- Title: Rationalization for Explainable NLP: A Survey
- Title(参考訳): 説明可能なnlpの合理化:調査
- Authors: Sai Gurrapu, Ajay Kulkarni, Lifu Huang, Ismini Lourentzou, Laura
Freeman, Feras A. Batarseh
- Abstract要約: ブラックボックスモデルは、システムの内部と出力に到達するために必要なプロセスを理解するのを難しくする。
数値 (LIME, Shapley) と可視化 (Saliency Heatmap) の説明可能性技術は有用であるが, 専門知識を必要とするため不十分である。
合理化は、自然言語の説明(合理化)を提供することで、モデルの出力を正当化する
- 参考スコア(独自算出の注目度): 6.843420921654749
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent advances in deep learning have improved the performance of many
Natural Language Processing (NLP) tasks such as translation,
question-answering, and text classification. However, this improvement comes at
the expense of model explainability. Black-box models make it difficult to
understand the internals of a system and the process it takes to arrive at an
output. Numerical (LIME, Shapley) and visualization (saliency heatmap)
explainability techniques are helpful; however, they are insufficient because
they require specialized knowledge. These factors led rationalization to emerge
as a more accessible explainable technique in NLP. Rationalization justifies a
model's output by providing a natural language explanation (rationale). Recent
improvements in natural language generation have made rationalization an
attractive technique because it is intuitive, human-comprehensible, and
accessible to non-technical users. Since rationalization is a relatively new
field, it is disorganized. As the first survey, rationalization literature in
NLP from 2007-2022 is analyzed. This survey presents available methods,
explainable evaluations, code, and datasets used across various NLP tasks that
use rationalization. Further, a new subfield in Explainable AI (XAI), namely,
Rational AI (RAI), is introduced to advance the current state of
rationalization. A discussion on observed insights, challenges, and future
directions is provided to point to promising research opportunities.
- Abstract(参考訳): 近年のディープラーニングの進歩により、翻訳、質問応答、テキスト分類など多くの自然言語処理(NLP)タスクのパフォーマンスが向上している。
しかし、この改善はモデル説明可能性の犠牲になる。
ブラックボックスモデルは、システムの内部と出力に到達するのに要するプロセスを理解するのを難しくします。
数値 (LIME, Shapley) と可視化 (Saliency Heatmap) の説明可能性技術は有用であるが, 専門知識を必要とするため不十分である。
これらの要因により合理化はnlpにおいてより説明しやすい技術として出現した。
合理化は自然言語説明 (rationale) を提供することでモデルの出力を正当化する。
最近の自然言語生成の改善により、合理化は直感的で、人間に理解しやすく、非技術ユーザにもアクセスしやすく、魅力的な技術となった。
合理化は比較的新しい分野であるため、分解される。
最初の調査として、2007-2022年のNLPにおける合理化文献を分析した。
この調査では、合理化を利用するさまざまなNLPタスクで使用されるメソッド、説明可能な評価、コード、データセットを提示する。
さらに、説明可能なAI(XAI)の新たなサブフィールド、すなわちRational AI(RAI)を導入して、現在の合理化の状態を推し進める。
有望な研究機会を示すために、観察された洞察、課題、今後の方向性に関する議論が提供される。
関連論文リスト
- Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - Characterizing Large Language Models as Rationalizers of
Knowledge-intensive Tasks [6.51301154858045]
大規模言語モデル(LLM)は、タスク固有の最小限の監督力を持つ流動的なテキストを生成するのに熟練している。
専門家による事例を数ショットで表現することで,自然言語における知識誘導的合理化の課題を考察する。
驚いたことに、群衆労働者はクラウドソースの合理化よりも知識に基づく合理化を好んだ。
論文 参考訳(メタデータ) (2023-11-09T01:04:44Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Situated Natural Language Explanations [54.083715161895036]
自然言語の説明(NLE)は、人間に意思決定を説明する最もアクセスしやすいツールである。
既存のNLE研究の視点は、観客を考慮に入れない。
Situated NLEは視点を提供し、説明の生成と評価に関するさらなる研究を促進する。
論文 参考訳(メタデータ) (2023-08-27T14:14:28Z) - Testing the effectiveness of saliency-based explainability in NLP using
randomized survey-based experiments [0.6091702876917281]
Explainable AIにおける多くの研究は、NLPモデルの動作と予測に関する人間の洞察を与える説明方法を考案することを目的としている。
自然に人間の傾向やバイアスは、人間の説明を理解するのに役立ちます。
自然言語処理におけるサリエンシに基づくポストホック説明可能性手法の有効性を理解するために,ランダム化されたサーベイベース実験を設計した。
論文 参考訳(メタデータ) (2022-11-25T08:49:01Z) - Towards Formal Approximated Minimal Explanations of Neural Networks [0.0]
ディープニューラルネットワーク(DNN)は現在、多くのドメインで使用されている。
DNNは「ブラックボックス」であり、人間には解釈できない。
そこで本研究では,最小限の説明を求めるための効率的な検証手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:06:37Z) - Explanations from Large Language Models Make Small Reasoners Better [61.991772773700006]
提案手法は, 異なる設定において, 微調整ベースラインを連続的に, 著しく向上させることができることを示す。
副次的な利点として、人間の評価は、その予測を正当化するために高品質な説明を生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-13T04:50:02Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - A Survey of the State of Explainable AI for Natural Language Processing [16.660110121500125]
本稿では, 説明可能なAI(XAI)の現状について概観する。
本稿では,説明の主分類について論じるとともに,説明が到着して視覚化される様々な方法について論じる。
我々は、NLPモデル予測のための説明を生成するために現在利用可能な操作および説明可能性技術について詳述し、コミュニティにおけるモデル開発者のためのリソースとして機能する。
論文 参考訳(メタデータ) (2020-10-01T22:33:21Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。