論文の概要: Improving Implicit Discourse Relation Recognition with Natural Language Explanations from LLMs
- arxiv url: http://arxiv.org/abs/2602.21763v1
- Date: Wed, 25 Feb 2026 10:28:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.797125
- Title: Improving Implicit Discourse Relation Recognition with Natural Language Explanations from LLMs
- Title(参考訳): LLMからの自然言語説明による暗黙の談話関係認識の改善
- Authors: Heng Wang, Changxing Wu,
- Abstract要約: Implicit Discourse Relation Recognition (IDRR) は、深い意味理解を必要とするため、依然として困難な課題である。
大規模言語モデル(LLM)の最近の進歩は、深い言語理解と自然言語説明の生成において強力な推論能力を示している。
本稿では, LLMの推論能力を軽量IDRRモデルに抽出し, 性能と解釈性の両方を改善するための, 簡便かつ効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 6.696390269864987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Discourse Relation Recognition (IDRR) remains a challenging task due to the requirement for deep semantic understanding in the absence of explicit discourse markers. A further limitation is that existing methods only predict relations without providing any supporting explanations. Recent advances in large language models (LLMs) have shown strong reasoning capabilities in both deep language understanding and natural language explanation generation. In this work, we propose a simple yet effective approach to distill the reasoning capabilities of LLMs into lightweight IDRR models to improve both performance and interpretability. Specifically, we first prompt an LLM to generate explanations for each training instance conditioned on its gold label. Then, we introduce a novel classification-generation framework that jointly performs relation prediction and explanation generation, and train it with the additional supervision of LLM-generated explanations. Our framework is plug-and-play, enabling easy integration with most existing IDRR models. Experimental results on PDTB demonstrate that our approach significantly improves IDRR performance, while human evaluation further confirms that the generated explanations enhance model interpretability. Furthermore, we validate the generality of our approach on sentiment classification and natural language inference
- Abstract(参考訳): 暗黙の言論関係認識(IDRR)は、明示的な言論マーカーがない場合に深い意味理解を必要とするため、依然として困難な課題である。
さらに制限されているのは、既存のメソッドがサポートされた説明を提供しずに関係を予測できることである。
大規模言語モデル(LLM)の最近の進歩は、深い言語理解と自然言語説明の生成において強力な推論能力を示している。
本研究では,LLMの推論能力を軽量IDRRモデルに抽出し,性能と解釈性の両方を改善するための簡易かつ効果的な手法を提案する。
具体的には、まず LLM にゴールドラベルに条件付けされた各トレーニングインスタンスの説明を生成するように促す。
次に、関係予測と説明生成を共同で行う新しい分類生成フレームワークを導入し、LLM生成説明のさらなる監督を施して学習する。
我々のフレームワークはプラグイン・アンド・プレイであり、既存のほとんどのIDRRモデルと簡単に統合できます。
PDTB実験の結果,本手法はIDRR性能を著しく向上することが示されたが,人間による評価では,生成した説明がモデル解釈可能性を高めることが確認された。
さらに、感情分類と自然言語推論に対する我々のアプローチの一般性を検証する。
関連論文リスト
- Can LLM-Generated Textual Explanations Enhance Model Classification Performance? An Empirical Study [11.117380681219295]
高品質なテキスト記述を自動生成するフレームワークを提案する。
自然言語生成(NLG)メトリクスの包括的スイートを用いて,これらの説明の質を厳格に評価する。
本実験により,自動説明は人手による説明に比べて高い競争力を示すことが示された。
論文 参考訳(メタデータ) (2025-08-13T12:59:08Z) - Revisiting LLM Reasoning via Information Bottleneck [57.519119962528166]
大規模言語モデル(LLM)は、最近、検証可能な報酬付き強化学習(RLVR)を通じて推論能力の顕著な進歩を示した。
本稿では,情報ボトルネック(IB)の原理に基づくLLM推論の理論的特徴について述べる。
IB対応推論最適化(IBRO)を提案する。
論文 参考訳(メタデータ) (2025-07-24T13:14:25Z) - Verification and Refinement of Natural Language Explanations through LLM-Symbolic Theorem Proving [13.485604499678262]
本稿では,Large Language Models(LLMs)とTheorem Provers(TPs)の統合による自然言語説明の検証と改善について検討する。
本稿では, TPとLPMを統合して説明文の生成と定式化を行う, Explanation-Refiner というニューロシンボリック・フレームワークを提案する。
代わりに、TPは説明の論理的妥当性を公式に保証し、その後の改善のためのフィードバックを生成するために使用される。
論文 参考訳(メタデータ) (2024-05-02T15:20:01Z) - FaithLM: Towards Faithful Explanations for Large Language Models [60.45183469474916]
大規模言語モデルの忠実度を評価し改善するモデルに依存しないフレームワークであるFaithLMを紹介した。
FaithLMは一貫して忠実度を高め、強い自己説明ベースラインよりも人間の合理性に整合した説明を生成する。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Explanation-aware Soft Ensemble Empowers Large Language Model In-context
Learning [50.00090601424348]
大規模言語モデル(LLM)は、様々な自然言語理解タスクにおいて顕著な能力を示している。
我々は,LLMを用いたテキスト内学習を支援するための説明型ソフトアンサンブルフレームワークであるEASEを提案する。
論文 参考訳(メタデータ) (2023-11-13T06:13:38Z) - Prompt-based Logical Semantics Enhancement for Implicit Discourse
Relation Recognition [4.7938839332508945]
Inlicit Discourse Relation Recognition (IDRR) のための Prompt-based Logical Semantics Enhancement (PLSE) 法を提案する。
提案手法は,事前学習した言語モデルに対する対話関係に関する知識を,素早い接続予測によってシームレスに注入する。
PDTB 2.0 と CoNLL16 データセットによる実験結果から,本手法は現状の最先端モデルに対して優れた一貫した性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-01T08:38:08Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。