論文の概要: Integrating Hierarchical Semantic into Iterative Generation Model for Entailment Tree Explanation
- arxiv url: http://arxiv.org/abs/2409.17757v1
- Date: Thu, 26 Sep 2024 11:46:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 19:53:49.703340
- Title: Integrating Hierarchical Semantic into Iterative Generation Model for Entailment Tree Explanation
- Title(参考訳): 拡張木説明のための階層的意味を反復生成モデルに統合する
- Authors: Qin Wang, Jianzhou Feng, Yiming Xu,
- Abstract要約: 本稿では,HiSCG (Controller-Generator) の枠組みに基づいて文の階層的意味論を統合するアーキテクチャを提案する。
提案手法はEntailmentBankデータセットの3つの設定で同等のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 7.5496857647335585
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Manifestly and logically displaying the line of reasoning from evidence to answer is significant to explainable question answering (QA). The entailment tree exhibits the lines structurally, which is different from the self-explanation principle in large-scale language models. Existing methods rarely consider the semantic association of sentences between and within hierarchies within the tree structure, which is prone to apparent mistakes in combinations. In this work, we propose an architecture of integrating the Hierarchical Semantics of sentences under the framework of Controller-Generator (HiSCG) to explain answers. The HiSCG designs a hierarchical mapping between hypotheses and facts, discriminates the facts involved in tree constructions, and optimizes single-step entailments. To the best of our knowledge, We are the first to notice hierarchical semantics of sentences between the same layer and adjacent layers to yield improvements. The proposed method achieves comparable performance on all three settings of the EntailmentBank dataset. The generalization results on two out-of-domain datasets also demonstrate the effectiveness of our method.
- Abstract(参考訳): 説明可能な質問応答(QA)には、証拠から答えへの推論の行を直感的で論理的に表示することが重要である。
エンテーメントツリーは、大規模言語モデルにおける自己説明の原則とは異なる、構造的に線を表現している。
既存の手法では、木構造内の階層と内部の文の意味的関連を考えることはめったにない。
本研究では,HiSCG (Controller-Generator) の枠組みの下で文の階層的意味論を統合するアーキテクチャを提案する。
HiSCGは仮説と事実の階層的なマッピングを設計し、木の構造に関わる事実を識別し、単一ステップの包含を最適化する。
我々の知る限りでは、我々は、同じ層と隣接する層の間の文の階層的意味論に初めて気づき、改善をもたらす。
提案手法はEntailmentBankデータセットの3つの設定で同等のパフォーマンスを実現する。
ドメイン外の2つのデータセットの一般化結果も,本手法の有効性を示す。
関連論文リスト
- Modeling Unified Semantic Discourse Structure for High-quality Headline Generation [45.23071138765902]
文書意味論を表現するために,統一意味談話構造(S3)を提案する。
文、節、単語の階層的な構成は、本質的に全体文書の意味を特徴づける。
私たちの仕事は、見出しや要約生成以上の、幅広いドキュメントモデリングタスクに対してインストラクティブなものです。
論文 参考訳(メタデータ) (2024-03-23T09:18:53Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z) - DiscoPrompt: Path Prediction Prompt Tuning for Implicit Discourse
Relation Recognition [27.977742959064916]
本稿では,IDRRにおける階層間の対話的情報と本質的な感覚を利用するために,プロンプトに基づく経路予測手法を提案する。
これは、プロンプトチューニングを通じて事前訓練された言語モデルにそのような構造情報を注入する最初の作品である。
論文 参考訳(メタデータ) (2023-05-06T08:16:07Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - ORCHARD: A Benchmark For Measuring Systematic Generalization of
Multi-Hierarchical Reasoning [8.004425059996963]
本稿では,Transformer と LSTM のモデルが体系的一般化において驚くほど失敗することを示す。
また、階層間の参照の増加に伴い、Transformerはランダムにしか動作しないことを示す。
論文 参考訳(メタデータ) (2021-11-28T03:11:37Z) - Modeling Heterogeneous Hierarchies with Relation-specific Hyperbolic
Cones [64.75766944882389]
知識グラフにおける複数の階層的および非階層的関係を同時にモデル化できるKG埋め込みモデルであるConE(Cone Embedding)を提案する。
特に、ConEは双曲埋め込み空間の異なる部分空間における円錐包含制約を用いて、複数の異種階層をキャプチャする。
我々のアプローチでは、WN18RRで45.3%、DDB14で16.1%の新しい最先端hits@1が得られる(0.231 MRR)。
論文 参考訳(メタデータ) (2021-10-28T07:16:08Z) - R2D2: Recursive Transformer based on Differentiable Tree for
Interpretable Hierarchical Language Modeling [36.61173494449218]
本稿では, 構成過程をエミュレートするために, 微分可能なCKYスタイルのバイナリツリーに基づくモデルを提案する。
我々は、このアーキテクチャに対して双方向言語モデル事前学習の目的を拡張し、左右の抽象ノードを与えられた各単語を予測しようと試みる。
また,本手法を大規模化するために,合成ステップの線形数だけを符号化する効率的な伐採木誘導アルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-07-02T11:00:46Z) - Linguistically Driven Graph Capsule Network for Visual Question
Reasoning [153.76012414126643]
我々は「言語的に駆動されるグラフカプセルネットワーク」と呼ばれる階層的構成推論モデルを提案する。
具体的には,各カプセルを最下層に結合させ,元の質問に1つの単語を埋め込んだ言語的埋め込みを視覚的証拠で橋渡しする。
CLEVRデータセット、CLEVR合成生成テスト、およびFinalQAデータセットの実験は、我々のエンドツーエンドモデルの有効性と構成一般化能力を示す。
論文 参考訳(メタデータ) (2020-03-23T03:34:25Z) - Tree-structured Attention with Hierarchical Accumulation [103.47584968330325]
階層的累積」は解析木構造を一定時間複雑度で自己注意に符号化する。
提案手法は,4つの IWSLT 翻訳タスクと WMT'14 翻訳タスクにおいて,SOTA 法より優れている。
論文 参考訳(メタデータ) (2020-02-19T08:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。