論文の概要: Explanation Regeneration via Information Bottleneck
- arxiv url: http://arxiv.org/abs/2212.09603v1
- Date: Mon, 19 Dec 2022 16:41:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 16:46:25.343591
- Title: Explanation Regeneration via Information Bottleneck
- Title(参考訳): 情報ボトルネックによる説明再生
- Authors: Qintong Li, Zhiyong Wu, Lingpeng Kong, Wei Bi
- Abstract要約: 本研究では,情報ボトルネック手法 EIB を開発し,十分かつ簡潔な説明文を生成する。
提案手法は,事前学習された言語モデルからの単一パス出力を洗練することにより,自由テキストの説明を再生する。
- 参考スコア(独自算出の注目度): 29.92996769997743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining the black-box predictions of NLP models naturally and accurately
is an important open problem in natural language generation. These free-text
explanations are expected to contain sufficient and carefully-selected evidence
to form supportive arguments for predictions. Due to the superior generative
capacity of large pretrained language models, recent work built on prompt
engineering enables explanation generation without specific training. However,
explanation generated through single-pass prompting often lacks sufficiency and
conciseness. To address this problem, we develop an information bottleneck
method EIB to produce refined explanations that are sufficient and concise. Our
approach regenerates the free-text explanation by polishing the single-pass
output from the pretrained language model but retaining the information that
supports the contents being explained. Experiments on two out-of-domain tasks
verify the effectiveness of EIB through automatic evaluation and
thoroughly-conducted human evaluation.
- Abstract(参考訳): NLPモデルのブラックボックス予測を自然かつ正確に記述することは、自然言語生成において重要なオープン問題である。
これらのフリーテキストの説明は、予測に対する支持的な議論を形成するのに十分な、慎重に選択された証拠を含むことが期待されている。
大規模な事前学習型言語モデルの生成能力が優れているため,最近の技術開発により,特定の訓練を伴わない説明生成が可能となった。
しかし、シングルパスによる説明は、しばしば十分で簡潔さに欠ける。
この問題に対処するために,情報ボトルネック手法 EIB を開発し,十分かつ簡潔な説明文を生成する。
本手法は,事前学習した言語モデルから単一パス出力を洗練し,説明内容を支援する情報を保持することにより,自由テキスト説明を再生する。
2つの領域外タスクの実験は、自動評価と徹底した人的評価により、ERBの有効性を検証する。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Towards More Faithful Natural Language Explanation Using Multi-Level
Contrastive Learning in VQA [7.141288053123662]
視覚的質問応答(VQA-NLE)における自然言語の説明は,ブラックボックスシステムに対するユーザの信頼を高めるために,自然言語文を生成することによって,モデルの意思決定プロセスを説明することを目的としている。
既存のポストホックな説明は、人間の論理的推論と常に一致している訳ではなく、1) 誘惑的不満足な説明は、生成した説明が論理的に答えに繋がらないこと、2) 現実的不整合性、2) 画像上の事実を考慮せずに解答の反事実的説明を偽示すること、3) 意味的摂動の過敏性、モデルは、小さな摂動によって引き起こされる意味的変化を認識できないこと、である。
論文 参考訳(メタデータ) (2023-12-21T05:51:55Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Parallel Sentence-Level Explanation Generation for Real-World
Low-Resource Scenarios [18.5713713816771]
本論文は,弱教師付き学習から教師なし学習へ,問題を円滑に探求する最初の試みである。
並列説明生成と同時予測を容易にする非自己回帰解釈モデルを提案する。
論文 参考訳(メタデータ) (2023-02-21T14:52:21Z) - Explanations from Large Language Models Make Small Reasoners Better [61.991772773700006]
提案手法は, 異なる設定において, 微調整ベースラインを連続的に, 著しく向上させることができることを示す。
副次的な利点として、人間の評価は、その予測を正当化するために高品質な説明を生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-13T04:50:02Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models [54.184609286094044]
補助モデルと付加データなしで問題を解くための学習パラダイムとして,ノイズエントロピー正規化(NoiER)を提案する。
提案手法は,従来の微調整モデルと比較して平均55%改善した。
論文 参考訳(メタデータ) (2021-08-29T06:58:28Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - WT5?! Training Text-to-Text Models to Explain their Predictions [38.59658315243017]
我々は、Raffel氏らによって提案されたテキスト・トゥ・テキスト・フレームワークを利用して、言語モデルをトレーニングし、予測とともに自然なテキスト説明を出力します。
提案手法は,説明可能性に関する最新の結果を得るだけでなく,ラベル付き説明の限られたセットから学習を行うことも可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T02:20:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。