論文の概要: Parallel Sentence-Level Explanation Generation for Real-World
Low-Resource Scenarios
- arxiv url: http://arxiv.org/abs/2302.10707v1
- Date: Tue, 21 Feb 2023 14:52:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 14:55:20.555254
- Title: Parallel Sentence-Level Explanation Generation for Real-World
Low-Resource Scenarios
- Title(参考訳): 実世界低リソースシナリオのための並列文レベルの説明生成
- Authors: Yan Liu, Xiaokang Chen, Qi Dai
- Abstract要約: 本論文は,弱教師付き学習から教師なし学習へ,問題を円滑に探求する最初の試みである。
並列説明生成と同時予測を容易にする非自己回帰解釈モデルを提案する。
- 参考スコア(独自算出の注目度): 18.5713713816771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In order to reveal the rationale behind model predictions, many works have
exploited providing explanations in various forms. Recently, to further
guarantee readability, more and more works turn to generate sentence-level
human language explanations. However, current works pursuing sentence-level
explanations rely heavily on annotated training data, which limits the
development of interpretability to only a few tasks. As far as we know, this
paper is the first to explore this problem smoothly from weak-supervised
learning to unsupervised learning. Besides, we also notice the high latency of
autoregressive sentence-level explanation generation, which leads to
asynchronous interpretability after prediction. Therefore, we propose a
non-autoregressive interpretable model to facilitate parallel explanation
generation and simultaneous prediction. Through extensive experiments on
Natural Language Inference task and Spouse Prediction task, we find that users
are able to train classifiers with comparable performance $10-15\times$ faster
with parallel explanation generation using only a few or no annotated training
data.
- Abstract(参考訳): モデル予測の背後にある理論的根拠を明らかにするために、多くの著作が様々な形式の説明を提供している。
近年,可読性をさらに高めるため,文レベルの説明文の生成が進みつつある。
しかし、現在、文レベルの説明を追求する作業は注釈付きトレーニングデータに大きく依存しており、解釈可能性の開発はほんの数タスクに限られている。
私たちが知る限り、この問題を弱い教師付き学習から教師なし学習までスムーズに探求するのは、この論文が初めてです。
さらに,自己回帰的な文レベルの説明生成のレイテンシも高く,予測後の非同期解釈可能性も高まる。
そこで本研究では,並列説明生成と同時予測を容易にする非回帰解釈モデルを提案する。
自然言語推論タスクと配偶者予測タスクに関する広範な実験を通じて、ユーザは、注釈付きトレーニングデータのみを使用して、並列説明生成で比較パフォーマンスの10~15〜15\times$高速で分類器を訓練できることが分かりました。
関連論文リスト
- XPrompt:Explaining Large Language Model's Generation via Joint Prompt Attribution [26.639271355209104]
LLM(Large Language Models)は複雑なテキスト生成タスクにおいて顕著なパフォーマンスを示す。
生成したコンテンツに対する入力プロンプトの寄与は、まだ人間には明らかでない。
本稿では,共同プロンプト帰属型XPromptに基づく実例説明フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T18:16:41Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - An Explanation of In-context Learning as Implicit Bayesian Inference [117.19809377740188]
In-context Learning の出現における事前学習分布の役割について検討した。
本研究では,潜在概念のベイズ的推論を通じて,文脈内学習が暗黙的に起こることを証明した。
我々は,事前学習損失が同じであっても,スケーリングモデルのサイズがコンテキスト内精度を向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2021-11-03T09:12:33Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - WT5?! Training Text-to-Text Models to Explain their Predictions [38.59658315243017]
我々は、Raffel氏らによって提案されたテキスト・トゥ・テキスト・フレームワークを利用して、言語モデルをトレーニングし、予測とともに自然なテキスト説明を出力します。
提案手法は,説明可能性に関する最新の結果を得るだけでなく,ラベル付き説明の限られたセットから学習を行うことも可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T02:20:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。