論文の概要: MarioNette: Self-Supervised Sprite Learning
- arxiv url: http://arxiv.org/abs/2104.14553v1
- Date: Thu, 29 Apr 2021 17:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 14:15:18.707760
- Title: MarioNette: Self-Supervised Sprite Learning
- Title(参考訳): marionette: 自己教師付きスプライト学習
- Authors: Dmitriy Smirnov, Michael Gharbi, Matthew Fisher, Vitor Guizilini,
Alexei A. Efros, Justin Solomon
- Abstract要約: 反復要素のグラフィカルな非絡み合い表現を得るための深層学習手法を提案する。
テクスチャパッチの辞書を共同で学習し,それらをキャンバスに配置するネットワークを訓練することにより,スプライトベースのコンテンツをスパースで一貫性があり,解釈可能な表現に効果的に分解する。
- 参考スコア(独自算出の注目度): 67.51317291061115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual content often contains recurring elements. Text is made up of glyphs
from the same font, animations, such as cartoons or video games, are composed
of sprites moving around the screen, and natural videos frequently have
repeated views of objects. In this paper, we propose a deep learning approach
for obtaining a graphically disentangled representation of recurring elements
in a completely self-supervised manner. By jointly learning a dictionary of
texture patches and training a network that places them onto a canvas, we
effectively deconstruct sprite-based content into a sparse, consistent, and
interpretable representation that can be easily used in downstream tasks. Our
framework offers a promising approach for discovering recurring patterns in
image collections without supervision.
- Abstract(参考訳): 視覚コンテンツはしばしば繰り返し要素を含む。
テキストは、同じフォントのグリフで構成され、漫画やビデオゲームのようなアニメーションは、画面を移動するスプライトで構成され、自然ビデオは、しばしばオブジェクトの繰り返しビューを持つ。
本稿では,再帰的要素の図形的に切り離された表現を,完全に自己管理的に獲得する深層学習手法を提案する。
テクスチャパッチの辞書を共同で学習し,それらをキャンバスに配置するネットワークを訓練することにより,スプライトベースのコンテンツを,下流タスクで容易に使用できるスパースで一貫性のある解釈可能な表現に効果的に分解する。
当社のフレームワークは,イメージコレクションの繰り返しパターンを監視せずに発見するための,有望なアプローチを提供します。
関連論文リスト
- CAPro: Webly Supervised Learning with Cross-Modality Aligned Prototypes [93.71909293023663]
クロスモダリティ・アライテッド・プロトタイプ(CAPro)は、視覚表現を正しい意味論で学習する統合コントラスト学習フレームワークである。
CAProは、新しい最先端のパフォーマンスを実現し、オープンセット認識に対する堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-15T07:20:22Z) - GlyphDraw: Seamlessly Rendering Text with Intricate Spatial Structures
in Text-to-Image Generation [18.396131717250793]
GlyphDrawは、画像生成モデルに特定の言語に対して、テキストにコヒーレントに埋め込まれた画像を生成する能力を持たせることを目的とした、一般的な学習フレームワークである。
提案手法は,プロンプトのように正確な言語文字を生成するだけでなく,生成したテキストを背景にシームレスにブレンドする。
論文 参考訳(メタデータ) (2023-03-31T08:06:33Z) - SmartBrush: Text and Shape Guided Object Inpainting with Diffusion Model [27.91089554671927]
ジェネリック・イメージ・インペイントは、周辺情報を借りて、腐敗したイメージを完成させることを目的としている。
対照的に、マルチモーダル・インパインティングは、インパインされたコンテンツに対してより柔軟で有用なコントロールを提供する。
テキストと形状誘導の両方を用いて、オブジェクトで欠落した領域を完了するための拡散モデルSmartBrushを提案する。
論文 参考訳(メタデータ) (2022-12-09T18:36:13Z) - Plug-and-Play Diffusion Features for Text-Driven Image-to-Image
Translation [10.39028769374367]
本稿では,画像間翻訳の領域にテキスト・ツー・イメージ合成を取り入れた新しいフレームワークを提案する。
本手法は,事前学習したテキスト・画像拡散モデルのパワーを利用して,対象のテキストに適合する新たな画像を生成する。
論文 参考訳(メタデータ) (2022-11-22T20:39:18Z) - Fully Context-Aware Image Inpainting with a Learned Semantic Pyramid [102.24539566851809]
画像中の任意の欠落する領域に対して、合理的で現実的なコンテンツを復元することは、重要な課題である。
最近の画像インパインティングモデルは鮮明な視覚的詳細を生成するために大きな進歩を遂げているが、それでもテクスチャのぼやけや構造的歪みにつながる可能性がある。
本研究では,画像中の局所的欠落コンテンツの回復に大きく貢献する,多スケールなセマンティック・セマンティック・ピラミッド・ネットワーク(SPN)を提案する。
論文 参考訳(メタデータ) (2021-12-08T04:33:33Z) - Level generation and style enhancement -- deep learning for game
development overview [0.0]
統計的手法,機械学習,あるいはディープラーニングを用いて,レベルマップを作成するための7つのアプローチを提案する。
我々はゲーム開発者とレベルアーティストに新たな可能性を示すことを目指している。
論文 参考訳(メタデータ) (2021-07-15T15:24:43Z) - Context-Aware Image Inpainting with Learned Semantic Priors [100.99543516733341]
欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
論文 参考訳(メタデータ) (2021-06-14T08:09:43Z) - Self-Supervised Equivariant Scene Synthesis from Video [84.15595573718925]
本稿では,映像からシーン表現を学習するフレームワークを提案する。
トレーニング後、画像エンコーディングをリアルタイムで操作して、非表示のコンポーネントの組み合わせを生成することができる。
背景を持つMNISTの移動、2Dビデオゲームのスプライト、ファッションモデリングの3つのデータセットで結果を示す。
論文 参考訳(メタデータ) (2021-02-01T14:17:31Z) - Self-Supervised Representation Learning from Flow Equivariance [97.13056332559526]
本稿では,複雑なシーンの映像ストリームに直接展開可能な,自己教師型学習表現フレームワークを提案する。
高分解能rawビデオから学んだ我々の表現は、静的画像の下流タスクに簡単に使用できます。
論文 参考訳(メタデータ) (2021-01-16T23:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。