論文の概要: Animating Still Images
- arxiv url: http://arxiv.org/abs/2209.10497v1
- Date: Wed, 21 Sep 2022 16:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 16:44:39.320999
- Title: Animating Still Images
- Title(参考訳): 静止画のアニメーション
- Authors: Kushagr Batra, Mridul Kavidayal
- Abstract要約: 提案手法は深層学習を用いて被写体として表現された画像のセクションを分割し,背景の仕上げにインペイントを用い,画像の残りの部分を保存しながらトライアングルメッシュに埋め込まれた画像にアニメーションを付加する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for imparting motion to a still 2D image. Our method uses
deep learning to segment a section of the image denoted as subject, then uses
in-painting to complete the background, and finally adds animation to the
subject by embedding the image in a triangle mesh, while preserving the rest of
the image.
- Abstract(参考訳): 静止した2次元画像に動きを与える手法を提案する。
提案手法は深層学習を用いて被写体として表現された画像のセクションを分割し,背景の仕上げにインペイントを用い,画像の残りの部分を保存しながらトライアングルメッシュに埋め込まれた画像にアニメーションを付加する。
関連論文リスト
- Open-Vocabulary 3D Semantic Segmentation with Text-to-Image Diffusion Models [57.37244894146089]
Diff2Sceneは、テキスト画像生成モデルからの凍結表現と、サルエント・アウェアと幾何学的アウェアマスクを併用して、オープンな3次元セマンティックセマンティックセグメンテーションと視覚的グラウンドニングタスクに活用する。
競争ベースラインを上回り、最先端の手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-07-18T16:20:56Z) - Sketch-Guided Scene Image Generation [11.009579131371018]
スケッチ入力からシーン画像を生成するタスクを分解したスケッチ誘導シーン画像生成フレームワークを提案する。
事前学習した拡散モデルを用いて、個々のオブジェクトの描画をオブジェクトのイメージに変換し、余分なスケッチ構造を維持しながら追加の詳細を推測する。
シーンレベルの画像構築において、分離した背景プロンプトを用いてシーン画像の潜在表現を生成する。
論文 参考訳(メタデータ) (2024-07-09T00:16:45Z) - Sketch-guided Image Inpainting with Partial Discrete Diffusion Process [5.005162730122933]
スケッチ誘導インペイントのための新しい部分離散拡散法(PDDP)を提案する。
PDDPは画像のマスキング領域を破損させ、手描きスケッチで条件付けられたこれらのマスキング領域を再構築する。
提案するトランスモジュールは,2つの入力を受信する。マスク領域を含む画像はインペイントされ,クエリスケッチは逆拡散過程をモデル化する。
論文 参考訳(メタデータ) (2024-04-18T07:07:38Z) - PaintSeg: Training-free Segmentation via Painting [50.17936803209125]
PaintSegは、トレーニングなしでオブジェクトをセグメンテーションするための新しい教師なしのメソッドである。
前者は前景をマスキングして背景を埋め、後者は前景の欠落部分を回復しながら背景をマスキングする。
実験の結果、PaintSegは、粗いマスクプロンプト、ボックスプロンプト、ポイントプロンプトセグメンテーションタスクにおいて、既存のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-30T20:43:42Z) - 3D Cinemagraphy from a Single Image [73.09720823592092]
3Dシネマグラフィー(3D Cinemagraphy)は、3D画像と2Dアニメーションを融合させる新しい技術である。
静止画1枚を入力として、視覚コンテンツアニメーションとカメラモーションの両方を含むビデオを生成することを目標としています。
論文 参考訳(メタデータ) (2023-03-10T06:08:23Z) - Artistic Arbitrary Style Transfer [1.1279808969568252]
任意スタイル転送(英: Arbitrary Style Transfer)とは、コンテンツ画像とスタイル画像という2つの画像から新しい画像を生成する技術である。
構造とスタイルコンポーネントのバランシングは、他の最先端のアルゴリズムが解決しようとしている大きな課題である。
本研究では、畳み込みニューラルネットワークを用いたディープラーニングアプローチを用いて、これらの問題を解決する。
論文 参考訳(メタデータ) (2022-12-21T21:34:00Z) - Self-Supervised Image Representation Learning with Geometric Set
Consistency [50.12720780102395]
本稿では,3次元幾何整合性に基づく自己教師付き画像表現学習法を提案する。
具体的には、画像ビュー内の特徴整合性を強化するために、コントラスト学習フレームワークに3次元幾何学的整合性を導入する。
論文 参考訳(メタデータ) (2022-03-29T08:57:33Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - 3D Photography using Context-aware Layered Depth Inpainting [50.66235795163143]
本稿では、1枚のRGB-D入力画像を3D写真に変換する方法を提案する。
学習に基づく着色モデルでは,新しい局所的な色と深度を隠蔽領域に合成する。
結果の3D写真は、モーションパララックスで効率よくレンダリングできる。
論文 参考訳(メタデータ) (2020-04-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。