論文の概要: STORYWARS: A Dataset and Instruction Tuning Baselines for Collaborative
Story Understanding and Generation
- arxiv url: http://arxiv.org/abs/2305.08152v1
- Date: Sun, 14 May 2023 13:09:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 17:16:46.263701
- Title: STORYWARS: A Dataset and Instruction Tuning Baselines for Collaborative
Story Understanding and Generation
- Title(参考訳): STORYWARS:コラボレーティブなストーリー理解と生成のためのデータセットとインストラクションチューニングベースライン
- Authors: Yulun Du and Lydia Chilton
- Abstract要約: 協力的なストーリーは、複数の著者が様々なスタイルや意図で共同作業によって作成されたテキストである。
私たちはSTORYWARSを紹介します。これは、オンラインプラットフォームから9,400人の異なる著者によって書かれた4万以上のコラボレーティブなストーリーのデータセットです。
STORYWARSでは7つの理解と5つの生成タスクからなる12のタスクタイプを設計し、101の多様なストーリー関連タスクを導出する。
- 参考スコア(独自算出の注目度): 2.550900579709111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative stories, which are texts created through the collaborative
efforts of multiple authors with different writing styles and intentions, pose
unique challenges for NLP models. Understanding and generating such stories
remains an underexplored area due to the lack of open-domain corpora. To
address this, we introduce STORYWARS, a new dataset of over 40,000
collaborative stories written by 9,400 different authors from an online
platform. We design 12 task types, comprising 7 understanding and 5 generation
task types, on STORYWARS, deriving 101 diverse story-related tasks in total as
a multi-task benchmark covering all fully-supervised, few-shot, and zero-shot
scenarios. Furthermore, we present our instruction-tuned model, INSTRUCTSTORY,
for the story tasks showing that instruction tuning, in addition to achieving
superior results in zero-shot and few-shot scenarios, can also obtain the best
performance on the fully-supervised tasks in STORYWARS, establishing strong
multi-task benchmark performances on STORYWARS.
- Abstract(参考訳): 協力的なストーリーは、異なる執筆スタイルと意図を持つ複数の著者の協力によって作成されたテキストであり、NLPモデルに固有の課題を提起する。
このようなストーリーの理解と生成は、オープンドメインコーパスが欠如しているため、未熟な領域である。
これを解決するために、オンラインプラットフォームから9,400人の異なる著者によって書かれた4万以上のコラボレーティブなストーリーのデータセットであるSTORYWARSを紹介します。
STORYWARSでは7つの理解と5つの生成タスクからなる12のタスクタイプを設計し、全教師付き、少数ショット、ゼロショットシナリオをカバーするマルチタスクベンチマークとして、合計101のストーリー関連タスクを導出する。
さらに,STORYWARSの完全教師付きタスクにおいて,命令チューニングがゼロショットおよび少数ショットシナリオにおいて優れた結果を得るとともに,優れたマルチタスクベンチマーク性能を確立できることを示すストーリータスクに対して,命令チューニングモデル INSTRUCTSTORY を提案する。
関連論文リスト
- Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - DataNarrative: Automated Data-Driven Storytelling with Visualizations and Texts [27.218934418961197]
データストーリ生成のための新しいタスクと,さまざまなソースから1,449のストーリを含むベンチマークを導入する。
2つのLLMエージェントを用いたマルチエージェントフレームワークを提案する。
我々のエージェント・フレームワークは一般的にモデルベースと人的評価の両方において非エージェント・フレームワークよりも優れていますが、結果はデータ・ストーリー・ジェネレーションにおけるユニークな課題を明らかにします。
論文 参考訳(メタデータ) (2024-08-09T21:31:33Z) - TARN-VIST: Topic Aware Reinforcement Network for Visual Storytelling [14.15543866199545]
クロスモーダルなタスクとして、視覚的なストーリーテリングは、順序付けられた画像シーケンスのためのストーリーを自動的に生成することを目的としている。
視覚的ストーリーテリングのための新しい手法,Topic Aware Reinforcement Network(TARN-VIST)を提案する。
特に,視覚的,言語的両面から,物語の話題情報を事前に抽出した。
論文 参考訳(メタデータ) (2024-03-18T08:01:23Z) - On Task-personalized Multimodal Few-shot Learning for Visually-rich
Document Entity Retrieval [59.25292920967197]
VDER(Few-shot document entity search)は、NLPアプリケーションにおいて重要なトピックである。
FewVEXは、エンティティレベルの少数ショットVDERの分野における将来の研究を促進するための、新しいデータセットである。
本稿では,タスクパーソナライズを効果的に実現することを中心に,タスク認識型メタラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-01T17:51:43Z) - Improving Cross-task Generalization of Unified Table-to-text Models with
Compositional Task Configurations [63.04466647849211]
メソッドは通常、タスク情報をエンコーダのプレフィックスとして単純なデータセット名でエンコードする。
本稿では,エンコーダがタスク間の一般化を改善するためのプロンプトセットであるコンポジションタスク構成を提案する。
これは、モデルがトレーニング中に異なるタスク間で共有知識をより良く学習できるだけでなく、新しい構成を構築することでモデルを制御できることを示している。
論文 参考訳(メタデータ) (2022-12-17T02:20:14Z) - CREATIVESUMM: Shared Task on Automatic Summarization for Creative
Writing [90.58269243992318]
本稿では,複数の創作分野,すなわち文学テキスト,映画脚本,テレビ脚本を要約する作業について紹介する。
4つのサブタスクとその対応するデータセットを導入し、本、映画脚本、プライムタイムテレビ脚本、昼間のソープオペラ脚本の要約に焦点を当てた。
COING 2022でのCREATIVESUMMワークショップの一環として、共有タスクには合計18の応募が寄せられた。
論文 参考訳(メタデータ) (2022-11-10T21:31:03Z) - TAGPRIME: A Unified Framework for Relational Structure Extraction [71.88926365652034]
TAGPRIMEは、与えられた条件に関する情報を入力テキストに追加するシーケンスタグ付けモデルである。
事前学習された言語モデルにおける自己認識機構により、プライミングワードは、出力された文脈化された表現に、与えられた条件に関するより多くの情報を含む。
5つの異なる言語にまたがる10のデータセットをカバーする3つのタスクに関する大規模な実験と分析は、TAGPRIMEの汎用性と有効性を示している。
論文 参考訳(メタデータ) (2022-05-25T08:57:46Z) - Outline to Story: Fine-grained Controllable Story Generation from
Cascaded Events [39.577220559911055]
長文のきめ細かい制御が可能な生成のためのテストベッドとして,"Outline to Story" (O2S) という新しいタスクを提案する。
次に、最新のキーワード抽出技術で構築された将来のベンチマーク用のデータセットを作成します。
論文 参考訳(メタデータ) (2021-01-04T08:16:21Z) - STORIUM: A Dataset and Evaluation Platform for Machine-in-the-Loop Story
Generation [48.56586847883825]
我々は、オンラインのコラボレーティブなストーリーテリングコミュニティであるSTORiumから構築されたデータセットと評価プラットフォームを紹介した。
データセットには6Kの長編記事と、各物語に散在する詳細な自然言語アノテーションが含まれています。
我々は、STORiumにそれらを統合することで、データセット上で微調整された言語モデルを評価し、実際の著者は提案されたストーリーの継続をモデルに問い合わせ、編集することができる。
論文 参考訳(メタデータ) (2020-10-04T23:26:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。