論文の概要: Evidence-Aware Inferential Text Generation with Vector Quantised
Variational AutoEncoder
- arxiv url: http://arxiv.org/abs/2006.08101v1
- Date: Mon, 15 Jun 2020 02:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 04:18:00.366657
- Title: Evidence-Aware Inferential Text Generation with Vector Quantised
Variational AutoEncoder
- Title(参考訳): ベクトル量子変分オートエンコーダを用いたエビデンス対応推論テキスト生成
- Authors: Daya Guo, Duyu Tang, Nan Duan, Jian Yin, Daxin Jiang and Ming Zhou
- Abstract要約: 本稿では,大規模なテキストコーパスからイベントの証拠を自動的に発見し,その証拠を利用して推論テキストの生成を導く手法を提案する。
このアプローチは、Event2MindとATOMICの両方のデータセットで最先端のパフォーマンスを提供します。
- 参考スコア(独自算出の注目度): 104.25716317141321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating inferential texts about an event in different perspectives
requires reasoning over different contexts that the event occurs. Existing
works usually ignore the context that is not explicitly provided, resulting in
a context-independent semantic representation that struggles to support the
generation. To address this, we propose an approach that automatically finds
evidence for an event from a large text corpus, and leverages the evidence to
guide the generation of inferential texts. Our approach works in an
encoder-decoder manner and is equipped with a Vector Quantised-Variational
Autoencoder, where the encoder outputs representations from a distribution over
discrete variables. Such discrete representations enable automatically
selecting relevant evidence, which not only facilitates evidence-aware
generation, but also provides a natural way to uncover rationales behind the
generation. Our approach provides state-of-the-art performance on both
Event2Mind and ATOMIC datasets. More importantly, we find that with discrete
representations, our model selectively uses evidence to generate different
inferential texts.
- Abstract(参考訳): 異なる視点でイベントに関する推論テキストを生成するには、イベントが発生するさまざまなコンテキストを推論する必要がある。
既存の作品は通常、明示的に提供されていないコンテキストを無視して、生成をサポートするのに苦労するコンテキストに依存しない意味表現を生成する。
そこで本研究では,大規模テキストコーパスからイベントの証拠を自動的に発見する手法を提案する。
本手法はエンコーダ・デコーダ方式で動作し,ベクトル量子化変数オートエンコーダを備え,離散変数上の分布から表現を出力する。
このような離散表現は、証拠認識生成を容易にするだけでなく、生成の背後にある合理性を明らかにする自然な方法を提供する、関連する証拠を自動的に選択することができる。
このアプローチはEvent2MindとATOMICの両方のデータセットで最先端のパフォーマンスを提供します。
さらに重要なことは、離散表現では、モデルを選択的にエビデンスを使用して異なる推論テキストを生成することである。
関連論文リスト
- IPAD: Iterative, Parallel, and Diffusion-based Network for Scene Text Recognition [5.525052547053668]
多様な応用により、シーンテキスト認識がますます注目を集めている。
最先端のほとんどのメソッドは、アテンション機構を備えたエンコーダ・デコーダフレームワークを採用しており、左から右へ自動回帰的にテキストを生成する。
本稿では,並列かつ反復的なデコーダを用いて,簡単なデコード戦略を採用する方法を提案する。
論文 参考訳(メタデータ) (2023-12-19T08:03:19Z) - Language Models As Semantic Indexers [78.83425357657026]
本稿では,ジェネレーティブ言語モデルを用いてセマンティックIDを学習するための自己教師型フレームワークLMIndexerを紹介する。
学習したIDの質を検証し,推奨,製品検索,文書検索の3つの課題において有効性を示す。
論文 参考訳(メタデータ) (2023-10-11T18:56:15Z) - Semantic Autoencoder and Its Potential Usage for Adversarial Attack [25.315265827962875]
セマンティックオートエンコーダと呼ばれる拡張されたオートエンコーダアーキテクチャを提案する。
オートエンコーダによって得られる潜在表現に依存する学習アルゴリズムに対する敵攻撃について検討する。
論文 参考訳(メタデータ) (2022-05-31T08:10:07Z) - Unsupervised and Distributional Detection of Machine-Generated Text [1.552214657968262]
自然言語生成モデルのパワーは、テキストが人間かマシンオーサリングされているかを検出する自動手法への関心の高まりを引き起こしている。
繰り返し高次n-gramを利用した機械生成文書の検出手法を提案する。
我々の実験は、その信号を利用することで、不審な文書を正確にランク付けできることを示している。
論文 参考訳(メタデータ) (2021-11-04T14:07:46Z) - Rethinking Text Line Recognition Models [57.47147190119394]
2つのデコーダファミリー(コネクショニスト時間分類と変換器)と3つのエンコーダモジュール(双方向LSTM、自己認識、GRCL)を考える。
広く使用されているシーンと手書きテキストの公開データセットの精度とパフォーマンスを比較します。
より一般的なTransformerベースのモデルとは異なり、このアーキテクチャは任意の長さの入力を処理できる。
論文 参考訳(メタデータ) (2021-04-15T21:43:13Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Commonsense Evidence Generation and Injection in Reading Comprehension [57.31927095547153]
本稿では,CEGI と命名された理解を読み取るためのコモンセンス・エビデンス・ジェネレーション・インジェクション・フレームワークを提案する。
この枠組みは、2種類の補助的コモンセンス証拠を包括的読解に注入し、機械に合理的思考能力を持たせる。
CosmosQAデータセットの実験では、提案されたCEGIモデルが現在の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-11T16:31:08Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。