論文の概要: Deep Generative Multimedia Children's Literature
- arxiv url: http://arxiv.org/abs/2209.13129v1
- Date: Tue, 27 Sep 2022 03:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 15:24:16.968455
- Title: Deep Generative Multimedia Children's Literature
- Title(参考訳): マルチメディア児童文学の深層化
- Authors: Matthew L. Olson
- Abstract要約: 私は、複数の公開可能なディープラーニングモデルを組み合わせて、マルチメディアエンターテイメントの世代で完全に自動化されたシステムを作成します。
私が提案するフレームワークは,あらゆるジャンルのエンターテイメントに対して十分に汎用的だが,子どものビデオ文学制作の課題に重点を置いている。
- 参考スコア(独自算出の注目度): 0.6091702876917279
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The popularity in Deep Learning (DL) based creative endeavours continues to
grow without any signs of slowing down. Unpredictable to many a decade ago, the
achievements of DL models in a variety of creative domains are spectacular in
their own right. In this work, I combine multiple publicly available DL models
to create a fully automated system in the generation of multimedia
entertainment. The framework I propose is general enough for any genre of
entertainment, but I focus on the task of children's video literature
production.
- Abstract(参考訳): ディープラーニング(DL)ベースのクリエイティブな取り組みの人気は、減速の兆候なしに成長を続けている。
10年前とは違って、さまざまなクリエイティブドメインにおけるDLモデルの成果は、それ自体が目覚ましいものです。
この作業では、複数の公開DLモデルを組み合わせて、マルチメディアエンターテイメントの世代で完全に自動化されたシステムを作成します。
私が提案するフレームワークは,あらゆるジャンルのエンターテイメントに対して十分に汎用的だが,子どものビデオ文学制作の課題に重点を置いている。
関連論文リスト
- Real-time Animation Generation and Control on Rigged Models via Large
Language Models [50.034712575541434]
本稿では,自然言語入力を用いたリップモデル上でのリアルタイムアニメーション制御と生成のための新しい手法を提案する。
大規模言語モデル(LLM)をUnityに組み込んで構造化テキストを出力し、多種多様なリアルなアニメーションに解析する。
論文 参考訳(メタデータ) (2023-10-27T01:36:35Z) - Luminate: Structured Generation and Exploration of Design Space with Large Language Models for Human-AI Co-Creation [19.62178304006683]
現在のインタラクションパラダイムは不足しており、限られたアイデアの集合に対して、ユーザを迅速なコンバージェンスへと導くものだ、と私たちは主張する。
本研究では,ユーザがシームレスに探索し,評価し,多数の応答を合成できる設計空間の構造化を促進するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:53:14Z) - State of the Art on Diffusion Models for Visual Computing [191.6168813012954]
本稿では,拡散モデルの基本数学的概念,実装の詳細,および一般的な安定拡散モデルの設計選択を紹介する。
また,拡散に基づく生成と編集に関する文献の急速な発展を概観する。
利用可能なデータセット、メトリクス、オープンな課題、社会的意味について議論する。
論文 参考訳(メタデータ) (2023-10-11T05:32:29Z) - LLM-grounded Video Diffusion Models [61.399690543666395]
ビデオ拡散モデルは、ニューラル・テンポラル・ジェネレーションのための有望なツールとして登場した。
現在のモデルはプロンプトと格闘し、制限されたまたは誤った動きを生成する。
所望の属性と動きパターンを持つビデオを生成するために,LLMによるビデオ拡散を導入する。
論文 参考訳(メタデータ) (2023-09-29T17:54:46Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - NeuralField-LDM: Scene Generation with Hierarchical Latent Diffusion
Models [85.20004959780132]
複雑な3D環境を合成できる生成モデルであるNeuralField-LDMを紹介する。
NeuralField-LDMは,条件付きシーン生成,シーンインペインティング,シーンスタイル操作など,さまざまな3Dコンテンツ作成アプリケーションに利用できることを示す。
論文 参考訳(メタデータ) (2023-04-19T16:13:21Z) - In BLOOM: Creativity and Affinity in Artificial Lyrics and Art [6.978441815839558]
我々は、中国語の歌詞のオープンな世代に大規模な多言語言語モデル(BLOOM-176B)を適用した。
人間のレビュアーを用いたコヒーレンス・クリエイティビティのための歌詞の評価を行った。
今後の研究のために,人気のある歌詞の中国語データセットであるMojimLyricsデータセットを紹介した。
論文 参考訳(メタデータ) (2023-01-13T06:22:22Z) - Draw Your Art Dream: Diverse Digital Art Synthesis with Multimodal
Guided Diffusion [78.47285788155818]
現在のデジタルアート合成法は、通常、単一のモダリティ入力をガイダンスとして使用する。
拡散型デジタルアートワーク生成手法であるMGADモデルを提案する。
論文 参考訳(メタデータ) (2022-09-27T13:10:25Z) - Exploring Latent Dimensions of Crowd-sourced Creativity [0.02294014185517203]
私たちは、AIベースの最大のクリエイティビティプラットフォームであるArtbreederの開発を行っています。
このプラットフォーム上で生成された画像の潜在次元を探索し、画像を操作するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-13T19:24:52Z) - Creativity of Deep Learning: Conceptualization and Assessment [1.5738019181349994]
我々は,創造的領域における生成的深層学習の現在の応用を概念化し,評価するために,計算的創造性からの洞察を利用する。
私たちは、現在のシステムと、人間の創造性の異なるモデルと、その欠点の類似点を強調します。
論文 参考訳(メタデータ) (2020-12-03T21:44:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。