論文の概要: Toward Diverse Precondition Generation
- arxiv url: http://arxiv.org/abs/2106.07117v1
- Date: Mon, 14 Jun 2021 00:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 05:53:40.182949
- Title: Toward Diverse Precondition Generation
- Title(参考訳): 多様な前提条件生成に向けて
- Authors: Heeyoung Kwon, Nathanael Chambers, and Niranjan Balasubramanian
- Abstract要約: プレ条件生成はシーケンシャル・ツー・シーケンス問題とみなすことができる。
ほとんどの実世界のシナリオでは、イベントはいくつかの前提条件を持ち、多様な生成を必要とする。
本稿では,多種多様な前提条件を生成可能なディバースプレ条件生成システムであるDiPを提案する。
- 参考スコア(独自算出の注目度): 15.021241299690226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language understanding must identify the logical connections between events
in a discourse, but core events are often unstated due to their commonsense
nature. This paper fills in these missing events by generating precondition
events. Precondition generation can be framed as a sequence-to-sequence
problem: given a target event, generate a possible precondition. However, in
most real-world scenarios, an event can have several preconditions, requiring
diverse generation -- a challenge for standard seq2seq approaches. We propose
DiP, a Diverse Precondition generation system that can generate unique and
diverse preconditions. DiP uses a generative process with three components --
an event sampler, a candidate generator, and a post-processor. The event
sampler provides control codes (precondition triggers) which the candidate
generator uses to focus its generation. Unlike other conditional generation
systems, DiP automatically generates control codes without training on diverse
examples. Analysis against baselines reveals that DiP improves the diversity of
preconditions significantly while also generating more preconditions.
- Abstract(参考訳): 言語理解は、談話におけるイベント間の論理的なつながりを識別しなければならないが、コアイベントは、その常識的な性質のため、しばしば説明されない。
本稿では、これらの欠落イベントをプリコンディションイベントを生成して埋める。
プレ条件生成はシーケンス・ツー・シーケンスの問題としてフレーム化することができる。
しかし、ほとんどの現実世界のシナリオでは、イベントはいくつかの前提条件を持ち、多様な生成を必要とする。
本稿では,多種多様な前提条件を生成可能なディバースプレ条件生成システムであるDiPを提案する。
DiPは3つのコンポーネント(イベントサンプリング、候補ジェネレータ、後処理)で生成プロセスを使用する。
イベントサンプラーは、候補生成器が生成に集中するために使用する制御コード(プリコンディショントリガー)を提供する。
他の条件生成システムとは異なり、DiPは様々な例を訓練せずに制御コードを自動的に生成する。
ベースラインに対する分析により、dipはプリコンディションの多様性を大幅に改善し、さらにプリコンディションを生成することが明らかになった。
関連論文リスト
- Distilling Event Sequence Knowledge From Large Language Models [17.105913216452738]
イベントシーケンスモデルは、イベントの分析と予測に非常に効果的であることが判明した。
我々は大規模言語モデルを用いて、確率的イベントモデル構築に効果的に使用できるイベントシーケンスを生成する。
提案手法は,入力KGの知識ギャップを埋めて,高品質なイベントシーケンスを生成することができることを示す。
論文 参考訳(メタデータ) (2024-01-14T09:34:42Z) - Modeling Complex Event Scenarios via Simple Entity-focused Questions [58.16787028844743]
複雑なシナリオにおけるイベントを参加者に関する質問に対する回答としてモデル化する質問誘導生成フレームワークを提案する。
生成プロセスの任意のステップでは、フレームワークは以前に生成されたイベントをコンテキストとして使用するが、3つの質問の1つに対する回答として次のイベントを生成する。
私たちの経験的評価は、この質問誘導世代が、参加者のより優れたカバレッジ、ドメイン内の多様なイベント、イベントシーケンスのモデリングにおける同等の難易度を提供することを示している。
論文 参考訳(メタデータ) (2023-02-14T15:48:56Z) - Retrieval-Augmented Generative Question Answering for Event Argument
Extraction [66.24622127143044]
イベント引数抽出のための検索拡張生成QAモデル(R-GQA)を提案する。
最も類似したQAペアを検索し、現在の例のコンテキストへのプロンプトとして拡張し、引数を回答としてデコードする。
提案手法は, 様々な設定において, かなり先行した手法より優れている。
論文 参考訳(メタデータ) (2022-11-14T02:00:32Z) - Towards Out-of-Distribution Sequential Event Prediction: A Causal
Treatment [72.50906475214457]
シーケンシャルなイベント予測の目標は、一連の歴史的なイベントに基づいて次のイベントを見積もることである。
実際には、次のイベント予測モデルは、一度に収集されたシーケンシャルなデータで訓練される。
文脈固有の表現を学習するための階層的な分岐構造を持つフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-24T07:54:13Z) - Unifying Event Detection and Captioning as Sequence Generation via
Pre-Training [53.613265415703815]
本稿では,イベント検出とキャプションのタスク間関連性を高めるための,事前学習と微調整の統合フレームワークを提案する。
我々のモデルは最先端の手法よりも優れており、大規模ビデオテキストデータによる事前学習ではさらに向上できる。
論文 参考訳(メタデータ) (2022-07-18T14:18:13Z) - Neural Rule-Execution Tracking Machine For Transformer-Based Text
Generation [43.71069101841354]
S2S(Sequence-to-Sequence)ニューラルテキスト生成モデルは、様々な自然言語生成タスクにおいて魅力的なパフォーマンスを示した。
しかしながら、これらのモデルのブラックボックスの性質は、特定のルールを実行する必要があるタスクにおけるアプリケーションを制限する。
本稿では,複数のルールを同時に活用するために,トランスフォーマベースジェネレータを組み込んだニューラルルール実行追跡装置を提案する。
論文 参考訳(メタデータ) (2021-07-27T20:41:05Z) - Modeling Preconditions in Text with a Crowd-sourced Dataset [17.828175478279654]
本稿では,ニュースワイヤにおけるイベントペア間の事前条件のクラウドソースアノテーションであるPeKoを紹介する。
前提条件のモデル化を目的とした2つの課題タスクも導入する。
両方のタスクの評価は、今日の大規模言語モデルでさえ、事前条件のモデリングが困難であることを示している。
論文 参考訳(メタデータ) (2020-10-06T01:52:34Z) - Conditional Hybrid GAN for Sequence Generation [56.67961004064029]
本稿では,この問題を解決するための条件付きハイブリッドGAN(C-Hybrid-GAN)を提案する。
我々はGumbel-Softmax法を利用して離散値列の分布を近似する。
提案したC-Hybrid-GANは、文脈条件付き離散値シーケンス生成において既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-18T03:52:55Z) - Team RUC_AIM3 Technical Report at Activitynet 2020 Task 2: Exploring
Sequential Events Detection for Dense Video Captioning [63.91369308085091]
本稿では、イベントシーケンス生成のための新規でシンプルなモデルを提案し、ビデオ中のイベントシーケンスの時間的関係を探索する。
提案モデルでは,非効率な2段階提案生成を省略し,双方向時間依存性を条件としたイベント境界を直接生成する。
総合システムは、チャレンジテストセットの9.894 METEORスコアで、ビデオタスクにおける密封イベントの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-14T13:21:37Z) - ERNIE-GEN: An Enhanced Multi-Flow Pre-training and Fine-tuning Framework
for Natural Language Generation [44.21363470798758]
ERNIE-GENは、シーケンス事前トレーニングと微調整のための拡張されたマルチフローシーケンスである。
学習と推論の相違を、補充生成機構とノイズ認識生成方式で橋渡しする。
単語単位で予測するのではなく、意味論的に完全であるスパンを連続的に予測するようにモデルを訓練する。
論文 参考訳(メタデータ) (2020-01-26T02:54:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。