論文の概要: Re:Draw -- Context Aware Translation as a Controllable Method for
Artistic Production
- arxiv url: http://arxiv.org/abs/2401.03499v1
- Date: Sun, 7 Jan 2024 14:34:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 18:39:14.887180
- Title: Re:Draw -- Context Aware Translation as a Controllable Method for
Artistic Production
- Title(参考訳): re:draw -- 芸術作品の制御可能な方法としての文脈対応翻訳
- Authors: Joao Liborio Cardoso, Francesco Banterle, Paolo Cignoni, Michael
Wimmer
- Abstract要約: インペイントとイメージ・ツー・イメージ翻訳の利点を組み合わせた新しい手法である文脈認識翻訳を導入する。
ユースケースとして,デザイン仕様に基づいて手書きのキャラクターアイを描画する手法を適用した。
- 参考スコア(独自算出の注目度): 8.383295377277836
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce context-aware translation, a novel method that combines the
benefits of inpainting and image-to-image translation, respecting
simultaneously the original input and contextual relevance -- where existing
methods fall short. By doing so, our method opens new avenues for the
controllable use of AI within artistic creation, from animation to digital art.
As an use case, we apply our method to redraw any hand-drawn animated
character eyes based on any design specifications - eyes serve as a focal point
that captures viewer attention and conveys a range of emotions, however, the
labor-intensive nature of traditional animation often leads to compromises in
the complexity and consistency of eye design. Furthermore, we remove the need
for production data for training and introduce a new character recognition
method that surpasses existing work by not requiring fine-tuning to specific
productions. This proposed use case could help maintain consistency throughout
production and unlock bolder and more detailed design choices without the
production cost drawbacks. A user study shows context-aware translation is
preferred over existing work 95.16% of the time.
- Abstract(参考訳): 既存の手法が不足している元の入力とコンテキスト関連性を同時に尊重する、インペイントとイメージ間翻訳の利点を組み合わせた新しい手法である、コンテキスト認識翻訳を導入する。
そこで本手法は,アニメーションからデジタルアートまで,芸術的創造におけるAIの制御可能な活用のための新たな道を開く。
ユースケースとして、我々は、手描きのキャラクター眼をデザイン仕様に基づいて再描画する手法を適用し、目は視聴者の注意を捉え、様々な感情を伝える焦点として機能するが、伝統的なアニメーションの労働集約性は、しばしば、目のデザインの複雑さと一貫性の妥協につながる。
さらに、訓練のための生産データの必要性を取り除き、特定の生産物に微調整を必要とせず、既存の作業を超える新しい文字認識手法を導入する。
提案されたユースケースは、プロダクション全体の一貫性を維持し、生産コストの欠点なしにより大胆で詳細な設計選択を解き放つのに役立つだろう。
ユーザ調査によれば、既存の仕事の95.16%よりも文脈認識翻訳が好まれる。
関連論文リスト
- Text Guided Image Editing with Automatic Concept Locating and Forgetting [27.70615803908037]
画像中の潜在的なターゲット概念を特定するために,Locate and Forget (LaF) と呼ばれる新しい手法を提案する。
本手法はベースラインと比較して,テキスト誘導画像編集作業において質的かつ定量的に優位性を示す。
論文 参考訳(メタデータ) (2024-05-30T05:36:32Z) - Dynamic Typography: Bringing Text to Life via Video Diffusion Prior [73.72522617586593]
動的タイポグラフィー(Dynamic Typography)と呼ばれる自動テキストアニメーション方式を提案する。
意味的意味を伝えるために文字を変形させ、ユーザプロンプトに基づいて活気ある動きを注入する。
本手法は,ベクトルグラフィックス表現とエンドツーエンド最適化に基づくフレームワークを利用する。
論文 参考訳(メタデータ) (2024-04-17T17:59:55Z) - HAIFIT: Human-to-AI Fashion Image Translation [6.034505799418777]
本稿では,スケッチを高忠実なライフスタイルの衣料品画像に変換する新しいアプローチであるHAIFITを紹介する。
本手法は, ファッションデザインに欠かせない, 独特のスタイルの保存に優れ, 細部が複雑である。
論文 参考訳(メタデータ) (2024-03-13T16:06:07Z) - Training-Free Consistent Text-to-Image Generation [80.4814768762066]
テキスト・ツー・イメージ・モデルは様々なプロンプトで同じ主題を表現できる。
既存のアプローチは、特定のユーザが提供する主題を記述する新しい単語を教えるためにモデルを微調整する。
本研究では、事前学習モデルの内部アクティベーションを共有することによって、一貫した主題生成を可能にする、トレーニング不要なアプローチであるConsiStoryを提案する。
論文 参考訳(メタデータ) (2024-02-05T18:42:34Z) - SketchDreamer: Interactive Text-Augmented Creative Sketch Ideation [111.2195741547517]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,制御されたスケッチを生成する手法を提案する。
我々の目標は、プロでないユーザにスケッチを作成させ、一連の最適化プロセスを通じて物語をストーリーボードに変換することです。
論文 参考訳(メタデータ) (2023-08-27T19:44:44Z) - ImageBrush: Learning Visual In-Context Instructions for Exemplar-Based
Image Manipulation [49.07254928141495]
我々は、より正確な画像編集のための視覚的指示を学習する、ImageBrushと呼ばれる新しい操作手法を提案する。
私たちのキーとなるアイデアは、人間の意図を正確に捉えた2つの変換画像を視覚的指示として使うことです。
提案モデルでは,ポーズ伝達,画像翻訳,映像インパインティングなどの下流タスクに対して,ロバストな一般化機能を示す。
論文 参考訳(メタデータ) (2023-08-02T01:57:11Z) - Text-Guided Synthesis of Eulerian Cinemagraphs [81.20353774053768]
テキスト記述からシネマグラフを作成する完全自動化された方法であるText2Cinemagraphを紹介する。
連続した動きと反復的なテクスチャを示す流れの川や漂流する雲などの流体要素のシネマグラフに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-06T17:59:31Z) - Make-A-Scene: Scene-Based Text-to-Image Generation with Human Priors [58.71128866226768]
近年のテキスト・ツー・イメージ生成手法は、生成した画像の忠実度とテキスト関連性を漸進的に改善している。
i)シーンの形式でテキストを補完する単純な制御機構を実現することで,これらのギャップに対処する新しいテキスト・ツー・イメージ手法を提案する。
このモデルにより,512×512ピクセルの解像度で高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-03-24T15:44:50Z) - Generative Art Using Neural Visual Grammars and Dual Encoders [25.100664361601112]
生成芸術を創出するための新しいアルゴリズムについて述べる。
ユーザーがテキスト文字列を入力することができ、この文字列に対する創造的な応答で画像が出力されます。
論文 参考訳(メタデータ) (2021-05-01T04:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。