論文の概要: Procedural Reading Comprehension with Attribute-Aware Context Flow
- arxiv url: http://arxiv.org/abs/2003.13878v1
- Date: Tue, 31 Mar 2020 00:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 00:58:38.311471
- Title: Procedural Reading Comprehension with Attribute-Aware Context Flow
- Title(参考訳): 属性認識型コンテキストフローによる手続き的読解
- Authors: Aida Amini, Antoine Bosselut, Bhavana Dalvi Mishra, Yejin Choi,
Hannaneh Hajishirzi
- Abstract要約: 手続き的なテキストは、しばしばエンティティの上で起こるプロセスを記述する。
本稿では,テキストを一般的な形式に翻訳することで,手続き的読解のためのアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 85.34405161075276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Procedural texts often describe processes (e.g., photosynthesis and cooking)
that happen over entities (e.g., light, food). In this paper, we introduce an
algorithm for procedural reading comprehension by translating the text into a
general formalism that represents processes as a sequence of transitions over
entity attributes (e.g., location, temperature). Leveraging pre-trained
language models, our model obtains entity-aware and attribute-aware
representations of the text by joint prediction of entity attributes and their
transitions. Our model dynamically obtains contextual encodings of the
procedural text exploiting information that is encoded about previous and
current states to predict the transition of a certain attribute which can be
identified as a span of text or from a pre-defined set of classes. Moreover,
our model achieves state of the art results on two procedural reading
comprehension datasets, namely ProPara and npn-cooking
- Abstract(参考訳): 手続き的テクストは、しばしば実体(例えば、光、食物)上で起こるプロセス(例えば、光合成と調理)を記述する。
本稿では,エンティティ属性(例えば位置,温度)上の遷移の列としてプロセスを表現する一般的な形式にテキストを変換し,手続き的読み理解のためのアルゴリズムを提案する。
事前学習された言語モデルを利用して,エンティティ属性とその遷移の合同予測により,テキストのエンティティ認識および属性認識表現を得る。
本モデルは,先行状態や現在状態について符号化されている情報を利用した手続き的テキストの文脈的エンコーディングを動的に取得し,テキストのスパンあるいは定義済みのクラスから特定可能な属性の遷移を予測する。
さらに, propara と npn-cooking の2つの手続き的読み解きデータセットにおいて, 解析結果が得られた。
関連論文リスト
- Neural Sequence-to-Sequence Modeling with Attention by Leveraging Deep Learning Architectures for Enhanced Contextual Understanding in Abstractive Text Summarization [0.0]
本稿では,単一文書の抽象TSのための新しいフレームワークを提案する。
構造、セマンティック、およびニューラルベースアプローチの3つの主要な側面を統合している。
その結果, 希少語, OOV語処理の大幅な改善が示唆された。
論文 参考訳(メタデータ) (2024-04-08T18:33:59Z) - Contextualized Diffusion Models for Text-Guided Image and Video Generation [67.69171154637172]
条件拡散モデルは高忠実度テキスト誘導視覚生成および編集において優れた性能を示した。
本研究では,テキスト条件と視覚的サンプル間の相互作用とアライメントを包含するクロスモーダルコンテキストを組み込むことにより,コンテキスト拡散モデル(ContextDiff)を提案する。
理論的導出を伴うDDPMとDDIMの両方にモデルを一般化し、テキスト・ツー・イメージ生成とテキスト・ツー・ビデオ編集という2つの課題を伴う評価において、モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T15:01:16Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Syntax-Enhanced Pre-trained Model [49.1659635460369]
BERTやRoBERTaなどの学習済みモデルを強化するために、テキストの構文構造を活用するという問題を研究する。
既存の手法では、事前学習段階または微調整段階のいずれかでテキストの構文を利用しており、両者の区別に苦しむ。
事前学習と微調整の両方の段階でテキストのシンタックスを利用するモデルを提示する。
論文 参考訳(メタデータ) (2020-12-28T06:48:04Z) - Generating Image Descriptions via Sequential Cross-Modal Alignment
Guided by Human Gaze [6.6358421117698665]
私たちは、最先端の画像キャプションシステムとして、出発点として捉えています。
言語生産中に記録された人間の視線パターンから情報を利用するモデル変異体を開発した。
実験と分析により、視線による注意を生かして、より良い説明が得られていることを確認した。
論文 参考訳(メタデータ) (2020-11-09T17:45:32Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z) - Temporal Embeddings and Transformer Models for Narrative Text
Understanding [72.88083067388155]
キャラクタ関係モデリングのための物語テキスト理解のための2つのアプローチを提案する。
これらの関係の時間的進化は動的単語埋め込みによって説明され、時間とともに意味的変化を学ぶように設計されている。
最新の変換器モデルBERTに基づく教師付き学習手法を用いて文字間の静的な関係を検出する。
論文 参考訳(メタデータ) (2020-03-19T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。