論文の概要: InFillmore: Neural Frame Lexicalization for Narrative Text Infilling
- arxiv url: http://arxiv.org/abs/2103.04941v1
- Date: Mon, 8 Mar 2021 17:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:44:06.674367
- Title: InFillmore: Neural Frame Lexicalization for Narrative Text Infilling
- Title(参考訳): infillmore: ナラティブテキストインフィルディングのためのニューラルネットワークの語彙化
- Authors: Jiefu Ou, Nathaniel Weir, Anton Belyy, Felix Yu, and Benjamin Van
Durme
- Abstract要約: フレームセマンティクス理論に触発された双方向文脈条件付き言語生成の構造化拡張を提案する。
インタラクティブなWebデモはhttps://nlp.jhu.edu/demos.comで公開しています。
- 参考スコア(独自算出の注目度): 36.102931352145845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a structured extension to bidirectional-context conditional
language generation, or "infilling," inspired by Frame Semantic theory
(Fillmore, 1976). Guidance is provided through two approaches: (1) model
fine-tuning, conditioning directly on observed symbolic frames, and (2) a novel
extension to disjunctive lexically constrained decoding that leverages frame
semantic lexical units. Automatic and human evaluations confirm that
frame-guided generation allows for explicit manipulation of intended infill
semantics, with minimal loss of indistinguishability from the human-generated
text. Our methods flexibly apply to a variety of use scenarios, and we provide
an interactive web demo available at https://nlp.jhu.edu/demos.
- Abstract(参考訳): フレームセマンティック理論(Fillmore, 1976)にインスパイアされた双方向コンテキスト条件付き言語生成("infilling")の構造拡張を提案する。
モデルの微調整、観察されたシンボリックフレーム上で直接条件付け、およびフレーム意味の語彙単位を利用する断続的制約付き復号への新しい拡張という2つのアプローチによりガイダンスを提供する。
自動評価と人間評価は、フレーム誘導生成によって意図されたインフィル意味論を明示的に操作できることを確認した。
我々のメソッドは様々なユースケースに柔軟に適用でき、インタラクティブなWebデモをhttps://nlp.jhu.edu/demos.comで公開しています。
関連論文リスト
- Unifying Latent and Lexicon Representations for Effective Video-Text
Retrieval [87.69394953339238]
ビデオテキスト検索における微細な意味を捉えるために語彙表現を学習するUNIFYフレームワークを提案する。
MSR-VTT と DiDeMo をそれぞれ4.8%,Recall@1 を8.2%改善した。
論文 参考訳(メタデータ) (2024-02-26T17:36:50Z) - Expedited Training of Visual Conditioned Language Generation via
Redundancy Reduction [61.16125290912494]
$textEVL_textGen$は、視覚条件付き言語生成モデルの事前トレーニング用に設計されたフレームワークである。
提案手法は,視覚言語モデルの学習を5倍に加速させるが,全体的な性能に顕著な影響を与えないことを示す。
論文 参考訳(メタデータ) (2023-10-05T03:40:06Z) - RealignDiff: Boosting Text-to-Image Diffusion Model with Coarse-to-fine Semantic Re-alignment [112.45442468794658]
本稿では,RealignDiffという2段階の粗大なセマンティックアライメント手法を提案する。
粗いセマンティックリアライメントフェーズにおいて、生成された画像キャプションと与えられたテキストプロンプトとのセマンティックな相違を評価するために、新しいキャプション報酬を提案する。
微妙なセマンティックリアライメントステージは、局所的な密集キャプション生成モジュールと再重み付けアテンション変調モジュールを用いて、局所的なセマンティックビューから生成された画像を洗練する。
論文 参考訳(メタデータ) (2023-05-31T06:59:21Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Towards Expressive Speaking Style Modelling with Hierarchical Context
Information for Mandarin Speech Synthesis [37.93814851450597]
文脈から発話スタイルをモデル化するための階層的枠組みを提案する。
より広い範囲の文脈情報を調べるために,階層型コンテキストエンコーダを提案する。
このエンコーダがスタイル表現をより良く学習できるように、我々は新しいトレーニング戦略を導入する。
論文 参考訳(メタデータ) (2022-03-23T05:27:57Z) - More Control for Free! Image Synthesis with Semantic Diffusion Guidance [79.88929906247695]
制御可能な画像合成モデルは、サンプル画像からテキスト命令やガイダンスに基づいて多様な画像を作成することができる。
セマンティックな拡散誘導のための新しい統合フレームワークを導入し、言語や画像の誘導、あるいはその両方を可能にした。
FFHQとLSUNのデータセットで実験を行い、微細なテキスト誘導画像合成結果を示す。
論文 参考訳(メタデータ) (2021-12-10T18:55:50Z) - R2D2: Relational Text Decoding with Transformers [18.137828323277347]
グラフ構造とそれらのノードとエッジに関連付けられた自然言語テキストとの相互作用をモデル化する新しいフレームワークを提案する。
提案手法は,グラフィカル構造とテキストのシーケンシャルな性質の両方を利用する。
提案モデルには幅広い応用があるが,データ・テキスト生成タスクにおけるその機能を示す。
論文 参考訳(メタデータ) (2021-05-10T19:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。