論文の概要: Semantic Frame Forecast
- arxiv url: http://arxiv.org/abs/2104.05604v1
- Date: Mon, 12 Apr 2021 16:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:19:23.284642
- Title: Semantic Frame Forecast
- Title(参考訳): セマンティックフレーム予測
- Authors: Chieh-Yang Huang and Ting-Hao 'Kenneth' Huang
- Abstract要約: 本稿では,次の10文,100文,あるいは1,000文で発生するセマンティックフレームを予測するタスクであるセマンティックフレーム予測について紹介する。
我々は,CODA-19の書籍4,794冊と学術論文7,962冊について,ブロックサイズを5文から1,000文に分けて実験を行った。
その結果、自動モデルは、ランダム、先行、リプレイのベースラインよりもフォローアップストーリーブロックを予測でき、タスクの実行可能性を示しています。
- 参考スコア(独自算出の注目度): 12.926738545363156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces semantic frame forecast, a task that predicts the
semantic frames that will occur in the next 10, 100, or even 1,000 sentences in
a running story. Prior work focused on predicting the immediate future of a
story, such as one to a few sentences ahead. However, when novelists write long
stories, generating a few sentences is not enough to help them gain high-level
insight to develop the follow-up story. In this paper, we formulate a long
story as a sequence of "story blocks," where each block contains a fixed number
of sentences (e.g., 10, 100, or 200). This formulation allows us to predict the
follow-up story arc beyond the scope of a few sentences. We represent a story
block using the term frequencies (TF) of semantic frames in it, normalized by
each frame's inverse document frequency (IDF). We conduct semantic frame
forecast experiments on 4,794 books from the Bookcorpus and 7,962 scientific
abstracts from CODA-19, with block sizes ranging from 5 to 1,000 sentences. The
results show that automated models can forecast the follow-up story blocks
better than the random, prior, and replay baselines, indicating the task's
feasibility. We also learn that the models using the frame representation as
features outperform all the existing approaches when the block size is over 150
sentences. The human evaluation also shows that the proposed frame
representation, when visualized as word clouds, is comprehensible,
representative, and specific to humans. Our code is available at
https://github.com/appleternity/FrameForecasting.
- Abstract(参考訳): 本稿では,次の10,100,あるいは1000の文で発生する意味的フレームを予測するタスクである意味的フレーム予測を紹介する。
以前の仕事は、ストーリーの短期的な未来を予測することに集中していた。
しかし、小説家が長い物語を書くとき、数文の文章を生成するだけでは、フォローアップストーリーを開発するためのハイレベルな洞察を得るのに十分ではない。
本稿では,各ブロックが一定数の文(例えば10,100,200)を含む「物語ブロック」の列として長い物語を定式化する。
この定式化により、数文の範囲を超えたフォローアップストーリーアークを予測することができる。
各フレームの逆文書頻度(idf)によって正規化された意味フレームの項周波数(tf)を用いてストーリーブロックを表現する。
本書の4,794冊と,CODA-19の7,962冊の科学論文に,ブロックサイズを5~1000文にまとめたセマンティックフレーム予測実験を行った。
その結果、自動化されたモデルは、ランダム、事前、リプレイのベースラインよりもフォローアップストーリーブロックを予測でき、タスクの実行可能性を示している。
また, ブロックサイズが150以上の場合, フレーム表現を特徴として使用するモデルは, 既存のアプローチよりも優れていた。
また,提案したフレーム表現が,単語雲として可視化された場合,人間にとって分かりやすく,代表的かつ特異であることを示す。
私たちのコードはhttps://github.com/appleternity/frameforecastingで利用可能です。
関連論文リスト
- StoryDiffusion: Consistent Self-Attention for Long-Range Image and Video Generation [117.13475564834458]
本稿では,一貫性自己注意という新たな自己注意計算手法を提案する。
提案手法を長距離ビデオ生成に拡張するために,新しい意味空間時間運動予測モジュールを導入する。
これら2つの新しいコンポーネントを統合することで、StoryDiffusionと呼ばれるフレームワークは、一貫した画像やビデオでテキストベースのストーリーを記述することができます。
論文 参考訳(メタデータ) (2024-05-02T16:25:16Z) - Efficient and Flexible Topic Modeling using Pretrained Embeddings and
Bag of Sentences [1.8592384822257952]
本稿では,新しいトピックモデリングと推論アルゴリズムを提案する。
我々は,生成過程モデルとクラスタリングを組み合わせることで,事前学習文の埋め込みを活用する。
The Tailor の評価は,本手法が比較的少ない計算要求で最先端の成果をもたらすことを示している。
論文 参考訳(メタデータ) (2023-02-06T20:13:11Z) - Make-A-Story: Visual Memory Conditioned Consistent Story Generation [57.691064030235985]
本稿では,アクタと背景コンテキストを暗黙的にキャプチャするビジュアルメモリモジュールを備えた,自己回帰拡散に基づく新しいフレームワークを提案する。
本手法は,視覚的品質の高いフレーム生成において,先行技術よりも優れていた。
MUGEN, PororoSV, FlintstonesSVデータセット上でのストーリー生成実験により, この手法は, 視覚的品質の高いフレーム生成において, 先行技術よりも優れるだけでなく, キャラクタと背景との適切な対応をモデル化した。
論文 参考訳(メタデータ) (2022-11-23T21:38:51Z) - Masked Conditional Video Diffusion for Prediction, Generation, and
Interpolation [14.631523634811392]
Masked Conditional Video Diffusion (MCVD) はビデオ予測のための汎用フレームワークである。
私たちは、過去のフレームや将来のフレームをすべて無作為に、無作為に、独立してマスクする方法でモデルをトレーニングします。
提案手法は,1~12日で計算時間を計測し,標準的なビデオ予測ベンチマークにまたがってSOTA結果を生成する。
論文 参考訳(メタデータ) (2022-05-19T20:58:05Z) - Pruned Graph Neural Network for Short Story Ordering [0.7087237546722617]
コヒーレンスを最大化する順序に文を整理することは、文の順序付けとして知られている。
そこで本研究では,文章間のエッジを生成するために,短い物語の文中心グラフを構築する手法を提案する。
また,代名詞を代名詞の代名詞に置き換えることによって,文中心性グラフの文を効果的にエンコードすることが観察された。
論文 参考訳(メタデータ) (2022-03-13T22:25:17Z) - Controlled Neural Sentence-Level Reframing of News Articles [40.802766338425926]
我々は,文脈に整合性を保ちながら,ニュース記事中の文を計算的に再構成する方法を研究する。
本稿では,フレーム付き言語保存事前学習,名義学習,対人学習の3つの戦略を提案する。
結果から,適切なフレームのテキストを生成することは,トレードオフよりも有効であることが示唆された。
論文 参考訳(メタデータ) (2021-09-10T15:57:24Z) - Using BERT Encoding and Sentence-Level Language Model for Sentence
Ordering [0.9134244356393667]
本稿では,短い記事のコーパスにおける文順序付けのアルゴリズムを提案する。
提案手法では,アテンション機構を用いて文の依存関係をキャプチャするUniversal Transformer (UT) に基づく言語モデルを用いる。
提案モデルには文、言語モデル、Brute Force Searchによる文配列の3つのコンポーネントが含まれている。
論文 参考訳(メタデータ) (2021-08-24T23:03:36Z) - Span Pointer Networks for Non-Autoregressive Task-Oriented Semantic
Parsing [55.97957664897004]
seq2seq、非自動回帰的、タスク指向を構築するための効果的なレシピは、3つのステップで発話とセマンティックフレームをマッピングする。
これらのモデルは通常、長さ予測によってボトルネックとなる。
本研究では,デコードタスクをテキスト生成からスパン予測へシフトさせる非自己回帰手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T07:02:35Z) - Revisiting Hierarchical Approach for Persistent Long-Term Video
Prediction [55.4498466252522]
従来の手法よりも桁違いに長い予測時間を持つビデオ予測の新しい標準を設定しました。
本手法は,まず意味構造列を推定し,その後,映像から映像への変換により,画素に翻訳することにより,将来的なフレームを予測する。
本手法は,自動車運転と人間のダンスに関する3つの課題データに基づいて評価し,非常に長い時間にわたって複雑なシーン構造と動きを生成できることを実証した。
論文 参考訳(メタデータ) (2021-04-14T08:39:38Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。