論文の概要: Telling Creative Stories Using Generative Visual Aids
- arxiv url: http://arxiv.org/abs/2110.14810v1
- Date: Wed, 27 Oct 2021 23:13:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-30 08:42:29.803785
- Title: Telling Creative Stories Using Generative Visual Aids
- Title(参考訳): 創造的な物語を創発的な視覚支援で語る
- Authors: Safinah Ali, Devi Parikh
- Abstract要約: 私たちはライターに、開始プロンプトからクリエイティブなストーリーを書くように頼み、同じプロンプトから生成するAIモデルによって生成されたビジュアルを提供した。
コントロールグループと比較すると、ビジュアルをストーリー・ライティング・アシストとして使用した作家は、より創造的で、オリジナルで、完全で、視覚的にできるストーリーを著した。
発見は、AIによる横断的なモダリティ入力は、人間とAIの共創において創造性の異なる側面に利益をもたらすが、収束する思考を妨げることを示している。
- 参考スコア(独自算出の注目度): 52.623545341588304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can visual artworks created using generative visual algorithms inspire human
creativity in storytelling? We asked writers to write creative stories from a
starting prompt, and provided them with visuals created by generative AI models
from the same prompt. Compared to a control group, writers who used the visuals
as story writing aid wrote significantly more creative, original, complete and
visualizable stories, and found the task more fun. Of the generative algorithms
used (BigGAN, VQGAN, DALL-E, CLIPDraw), VQGAN was the most preferred. The
control group that did not view the visuals did significantly better in
integrating the starting prompts. Findings indicate that cross modality inputs
by AI can benefit divergent aspects of creativity in human-AI co-creation, but
hinders convergent thinking.
- Abstract(参考訳): 生成的ビジュアルアルゴリズムを用いたビジュアルアートワークは、ストーリーテリングにおいて人間の創造性を刺激できるだろうか?
私たちはライターに、開始プロンプトからクリエイティブなストーリーを書くように頼み、同じプロンプトから生成するAIモデルによって生成されたビジュアルを提供した。
コントロールグループと比較すると、ストーリーライティングの補助としてビジュアルを使ったライターは、より創造的で、オリジナルで、完全で、視覚化可能なストーリーを書き、タスクをより楽しいと感じた。
生成アルゴリズム(BigGAN, VQGAN, DALL-E, CLIPDraw)のうち、VQGANが最も好まれていた。
視覚を観察しなかったコントロールグループは、開始プロンプトの統合において有意に改善した。
AIによる横断的モダリティ入力は、人間とAIの共同創造において創造性の異なる側面に利益をもたらすが、収束する思考を妨げる。
関連論文リスト
- A Character-Centric Creative Story Generation via Imagination [15.345466372805516]
我々はCCI(Character-centric Creative Story Generation via Imagination)と呼ばれる新しいストーリー生成フレームワークを紹介する。
CCIは創造的ストーリー生成のための2つのモジュール、IG(Image-Guided Imagination)とMW(Multi-Writer model)を備えている。
IGモジュールでは,文字や背景,メインプロットといった重要なストーリー要素を視覚的に表現するために,テキスト・ツー・イメージモデルを利用する。
MWモジュールはこれらのストーリー要素を使用して複数のペルソナ記述候補を生成し、ストーリーに挿入する最適なストーリーを選択することにより、物語の豊かさと深さを高める。
論文 参考訳(メタデータ) (2024-09-25T06:54:29Z) - SARD: A Human-AI Collaborative Story Generation [0.0]
本研究では,大規模言語モデルを用いたマルチチャプタストーリ生成のためのドラッグアンドドロップ型ビジュアルインタフェースであるSARDを提案する。
SARDのユーザビリティとその創造性に対する評価は、物語のノードベースの可視化は、著者がメンタルモデルを構築するのに役立つかもしれないが、著者にとって不必要な精神的オーバーヘッドを生じさせることを示している。
また、AIはストーリーの複雑さに関係なく、語彙的に多様性の低いストーリーを生成することもわかりました。
論文 参考訳(メタデータ) (2024-03-03T17:48:42Z) - MagicScroll: Nontypical Aspect-Ratio Image Generation for Visual
Storytelling via Multi-Layered Semantic-Aware Denoising [42.20750912837316]
MagicScrollはプログレッシブ拡散に基づく画像生成フレームワークであり、新しいセマンティック・アウェア・デノナイジング・プロセスを備えている。
オブジェクト、シーン、背景のレベルで生成された画像を、テキスト、画像、レイアウト条件できめ細かく制御できる。
物語のテキストの整合性、視覚的コヒーレンスの改善、オーディエンスへのエンゲージメントなど、有望な成果が紹介されている。
論文 参考訳(メタデータ) (2023-12-18T03:09:05Z) - Text-Only Training for Visual Storytelling [107.19873669536523]
視覚条件付きストーリー生成問題として視覚的ストーリーテリングを定式化する。
本稿では,モダリティ間のアライメントとストーリー生成の学習を分離するテキストのみのトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T09:32:17Z) - Intelligent Grimm -- Open-ended Visual Storytelling via Latent Diffusion
Models [70.86603627188519]
我々は,オープンエンドなビジュアルストーリーテリングとして表現された,与えられたストーリーラインに基づいてコヒーレントな画像列を生成するという,斬新で挑戦的な課題に焦点をあてる。
本稿では,新しい視覚言語コンテキストモジュールを用いた学習に基づく自動回帰画像生成モデル(StoryGen)を提案する。
StoryGenは最適化なしに文字を一般化することができ、一貫性のあるコンテンツと一貫した文字で画像列を生成する。
論文 参考訳(メタデータ) (2023-06-01T17:58:50Z) - Visualize Before You Write: Imagination-Guided Open-Ended Text
Generation [68.96699389728964]
我々は、機械生成画像を用いて、オープンエンドテキスト生成における言語モデルをガイドするiNLGを提案する。
オープンエンドテキスト生成タスクにおけるiNLGの有効性について実験と解析を行った。
論文 参考訳(メタデータ) (2022-10-07T18:01:09Z) - Creative Wand: A System to Study Effects of Communications in
Co-Creative Settings [9.356870107137093]
共創造的な混合開始システムは、アルゴリズムに影響を与えるユーザー中心の手段を必要とする。
共創造AIの主な疑問は以下のとおりである。
本稿では,共同創造型混合開始生成のためのカスタマイズ可能なフレームワークCREATIVE-WANDを紹介する。
論文 参考訳(メタデータ) (2022-08-04T20:56:40Z) - Towards Coherent Visual Storytelling with Ordered Image Attention [73.422281039592]
我々は秩序あるイメージアテンション(OIA)とイメージセンテンスアテンション(ISA)を開発する。
OIAは、シーケンスの他の画像における文対応画像と重要な領域間の相互作用をモデル化する。
ストーリーの文を生成するために、イメージ・センス・アテンション(ISA)を用いて重要なイメージアテンション・ベクターをハイライトする。
論文 参考訳(メタデータ) (2021-08-04T17:12:39Z) - FairyTailor: A Multimodal Generative Framework for Storytelling [33.39639788612019]
本稿では,人間とループによるビジュアルストーリーのコクリエーションのためのシステムとデモ,FairyTailorを紹介する。
ユーザは、生成されたテキストを織り、入力で検索した画像を織り込むことで、結束した子供の妖精を作ることができる。
我々の知る限り、これはテキストと画像の両方のインタラクティブなコフォームを可能にするマルチモーダルなストーリー生成のための最初の動的ツールである。
論文 参考訳(メタデータ) (2021-07-13T02:45:08Z) - Hide-and-Tell: Learning to Bridge Photo Streams for Visual Storytelling [86.42719129731907]
視覚的ギャップを埋めるストーリーラインを明示的に学習することを提案する。
私たちは、欠落した写真であっても、ネットワークをトレーニングして、完全なプラウティブルなストーリーを作り出す。
実験では,本手法とネットワーク設計がストーリーテリングに有効であることを示す。
論文 参考訳(メタデータ) (2020-02-03T14:22:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。