論文の概要: Generating Intermediate Steps for NLI with Next-Step Supervision
- arxiv url: http://arxiv.org/abs/2208.14641v1
- Date: Wed, 31 Aug 2022 05:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:03:53.700397
- Title: Generating Intermediate Steps for NLI with Next-Step Supervision
- Title(参考訳): 次世代スーパービジョンによるNLI中間ステップの生成
- Authors: Deepanway Ghosal and Somak Aditya and Monojit Choudhury
- Abstract要約: 我々は、NLI前提と仮説ペアが与えられた次のステップのみを生成するためにシーケンス・ツー・シーケンスモデルを訓練する。
次に、外部知識と記号探索により強化し、次段階の監督のみで中間段階を生成する。
自動検証と人的検証によって生成したステップの正しさを示す。
- 参考スコア(独自算出の注目度): 15.425765421938447
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Natural Language Inference (NLI) task often requires reasoning over
multiple steps to reach the conclusion. While the necessity of generating such
intermediate steps (instead of a summary explanation) has gained popular
support, it is unclear how to generate such steps without complete end-to-end
supervision and how such generated steps can be further utilized. In this work,
we train a sequence-to-sequence model to generate only the next step given an
NLI premise and hypothesis pair (and previous steps); then enhance it with
external knowledge and symbolic search to generate intermediate steps with only
next-step supervision. We show the correctness of such generated steps through
automated and human verification. Furthermore, we show that such generated
steps can help improve end-to-end NLI task performance using simple data
augmentation strategies, across multiple public NLI datasets.
- Abstract(参考訳): 自然言語推論(NLI)タスクは、結論に達するために、しばしば複数のステップの推論を必要とする。
このような中間段階を生成する必要性(要約説明の代わりに)は広く支持されているが、エンド・ツー・エンドの完全な監督なしにどうやって生成するか、どのように生成されたステップをさらに活用するかは明らかでない。
本研究では,nliの前提と仮説のペア(および前段階)が与えられた次のステップのみを生成するシーケンス・ツー・シーケンスモデルを訓練し,外部知識と記号探索によって拡張し,次のステップのみの中間ステップを生成する。
自動検証と人的検証によって生成したステップの正しさを示す。
さらに、このようなステップは、複数のパブリックNLIデータセットをまたいだ単純なデータ拡張戦略を用いて、エンドツーエンドのNLIタスクパフォーマンスを改善するのに役立つことを示す。
関連論文リスト
- Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - A Simple Finite-Time Analysis of TD Learning with Linear Function Approximation [2.44755919161855]
マルコフサンプリングの下で線形関数近似を用いたTD学習の有限時間収束について検討する。
提案アルゴリズムでは,プロジェクションステップを実際に実行することなく,プロジェクションに基づく解析の単純さを維持することができることを示す。
論文 参考訳(メタデータ) (2024-03-04T20:40:02Z) - Prompt Sketching for Large Language Models [7.687678490751105]
大規模言語モデル(LLM)の最近のプロンプト戦略は、モデルを連続的に何度もクエリする。
これにより、不連結で好ましくない中間応答が生じる。
提案するプロンプトスケッチは,プロンプトの完了だけでなく,テンプレート内の複数の変数の値を予測することで,LLMが応答する新たなプロンプト処理パラダイムである。
論文 参考訳(メタデータ) (2023-11-08T18:57:23Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - STEPS: A Benchmark for Order Reasoning in Sequential Tasks [16.52934509949172]
データ構築とタスクの定式化について述べ、重要な大規模言語モデル(LLM)のほとんどをベンチマークする。
1)シーケンシャルタスクにおける行動順序の常識的推論は,ゼロショットプロンプトや少数ショットインコンテキスト学習によって解決することが困難である。
論文 参考訳(メタデータ) (2023-06-07T13:58:55Z) - Evaluating and Improving Tool-Augmented Computation-Intensive Math
Reasoning [75.74103236299477]
CoT(Chain-of- Thought prompting)とツール拡張は、大きな言語モデルを改善するための効果的なプラクティスとして検証されている。
ツールインターフェース,すなわち textbfDELI を用いた推論ステップを考慮に入れた新しい手法を提案する。
CARPと他の6つのデータセットの実験結果から、提案されたDELIは、主に競合ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-06-04T17:02:59Z) - Non-Sequential Graph Script Induction via Multimedia Grounding [129.83134296316493]
我々は、学習タスクのための明示的なグラフスクリプトを生成することと、部分的なステップシーケンスが与えられた将来のステップを予測することの両方が可能なスクリプト知識モデルを訓練する。
人間による評価では、我々のモデルはWikiHowの線形ベースラインを48.76%上回り、シーケンシャルなステップ関係と非シーケンシャルなステップ関係を捉えた。
論文 参考訳(メタデータ) (2023-05-27T18:13:17Z) - Planning with Sequence Models through Iterative Energy Minimization [22.594413287842574]
本稿では,反復的エネルギー最小化の考え方に基づいて,計画とシーケンスモデルを統合するためのアプローチを提案する。
マスク付き言語モデルを用いて、行動軌跡上の暗黙のエネルギー関数を捕捉し、最小エネルギーの行動軌跡を見つけるための計画を立てる。
本稿は,BabyAIとAtari環境における最近のアプローチによるパフォーマンス向上について説明する。
論文 参考訳(メタデータ) (2023-03-28T17:53:22Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - SVIP: Sequence VerIfication for Procedures in Videos [68.07865790764237]
ステップレベルの変換を伴う負のアクションシーケンスと同一のアクションシーケンスを実行するポジティブなビデオペアを区別することを目的とした,新しいシーケンス検証タスクを提案する。
このような困難なタスクは、事前のアクション検出やセグメンテーションなしで、オープンセット設定に置かれる。
我々は、化学実験において、あらゆる段階的な変換を列挙したスクリプト付きビデオデータセットを収集する。
論文 参考訳(メタデータ) (2021-12-13T07:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。