論文の概要: Deformable Generator Networks: Unsupervised Disentanglement of
Appearance and Geometry
- arxiv url: http://arxiv.org/abs/1806.06298v4
- Date: Fri, 6 Oct 2023 08:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 17:47:55.341427
- Title: Deformable Generator Networks: Unsupervised Disentanglement of
Appearance and Geometry
- Title(参考訳): 変形可能なジェネレータネットワーク:外観と形状の教師なし不連続
- Authors: Xianglei Xing, Ruiqi Gao, Tian Han, Song-Chun Zhu, Ying Nian Wu
- Abstract要約: 本稿では、画像データと映像データの両方の外観と幾何学的情報を切り離す変形可能なジェネレータモデルを提案する。
外見生成ネットワークは、色、照明、アイデンティティ、カテゴリーを含む外見に関する情報をモデル化する。
幾何学的ジェネレータは、変形場を生成することにより、回転やストレッチなどの幾何学的ワーピングを行う。
- 参考スコア(独自算出の注目度): 93.02523642523477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a deformable generator model to disentangle the appearance and
geometric information for both image and video data in a purely unsupervised
manner. The appearance generator network models the information related to
appearance, including color, illumination, identity or category, while the
geometric generator performs geometric warping, such as rotation and
stretching, through generating deformation field which is used to warp the
generated appearance to obtain the final image or video sequences. Two
generators take independent latent vectors as input to disentangle the
appearance and geometric information from image or video sequences. For video
data, a nonlinear transition model is introduced to both the appearance and
geometric generators to capture the dynamics over time. The proposed scheme is
general and can be easily integrated into different generative models. An
extensive set of qualitative and quantitative experiments shows that the
appearance and geometric information can be well disentangled, and the learned
geometric generator can be conveniently transferred to other image datasets to
facilitate knowledge transfer tasks.
- Abstract(参考訳): 本稿では、画像データと映像データの外観と幾何学的情報を純粋に教師なしの方法で切り離す変形可能なジェネレータモデルを提案する。
外見生成ネットワークは、色、照明、アイデンティティ、カテゴリを含む外見に関する情報をモデル化し、幾何学的生成装置は、生成した外見をワープして最終画像又は映像シーケンスを得る変形場を生成することにより、回転や伸縮などの幾何学的ワーピングを行う。
2つのジェネレータは独立潜伏ベクトルを入力として、画像やビデオのシーケンスから外観と幾何学的情報を切り離す。
ビデオデータに対しては、外観と幾何学的ジェネレータの両方に非線形遷移モデルを導入し、時間とともにダイナミクスを捉える。
提案されたスキームは一般的であり、異なる生成モデルに容易に統合できる。
定性的かつ定量的な実験の広範なセットは、外観と幾何学的情報がうまく絡み合っており、学習された幾何学的生成物は他の画像データセットに便利に転送でき、知識伝達作業が容易であることを示している。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - Generative Topology for Shape Synthesis [13.608942872770855]
我々はポイントクラウド上での形状生成タスクのための新しいフレームワークを開発する。
提案モデルでは, 復元作業や生成作業の質が高く, 効率の良い潜在空間を確保でき, 既存の手法よりも桁違いに高速である。
論文 参考訳(メタデータ) (2024-10-09T17:19:22Z) - Learning Geometric Invariant Features for Classification of Vector Polygons with Graph Message-passing Neural Network [3.804240190982697]
本稿では,ポリゴンの形状分類のための幾何学的不変特徴を学習するために,新しいグラフメッセージパッシングニューラルネットワーク(PolyMP)を提案する。
提案したグラフベースPolyMPネットワークは,ポリゴンの幾何変換に不変な表現幾何学的特徴の学習を可能にする。
論文 参考訳(メタデータ) (2024-07-05T08:19:36Z) - Varying Manifolds in Diffusion: From Time-varying Geometries to Visual Saliency [25.632973225129728]
前方拡散過程と逆生成過程が多様体上の一連の分布を構成する拡散モデルの幾何学的性質について検討する。
生成速度は画像成分の視覚的明瞭度などの直感的な視覚特性と高い相関性を示す。
本稿では,画像成分の生成速度を時間とともに推定し,生成曲線を導出する効率的かつ微分可能な手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T07:32:41Z) - A Survey of Geometric Graph Neural Networks: Data Structures, Models and
Applications [67.33002207179923]
本稿では、幾何学的GNNに関するデータ構造、モデル、および応用について調査する。
幾何学的メッセージパッシングの観点から既存のモデルの統一的なビューを提供する。
また、方法論開発と実験評価の後の研究を促進するために、アプリケーションと関連するデータセットを要約する。
論文 参考訳(メタデータ) (2024-03-01T12:13:04Z) - Curve Your Attention: Mixed-Curvature Transformers for Graph
Representation Learning [77.1421343649344]
本稿では,一定曲率空間の積を完全に操作するトランスフォーマーの一般化を提案する。
また、非ユークリッド注意に対するカーネル化されたアプローチを提供し、ノード数とエッジ数に線形に時間とメモリコストでモデルを実行できるようにします。
論文 参考訳(メタデータ) (2023-09-08T02:44:37Z) - Geo-SIC: Learning Deformable Geometric Shapes in Deep Image Classifiers [8.781861951759948]
本稿では,画像分類の性能向上のために,変形空間における変形可能な形状を学習する最初のディープラーニングモデルGeo-SICを提案する。
画像空間と潜時形状空間の両方から特徴を同時に導出する,クラス内変動の大きい新設計のフレームワークを提案する。
幾何学的形状表現の教師なし学習を取り入れた強化型分類網を開発した。
論文 参考訳(メタデータ) (2022-10-25T01:55:17Z) - Generative Deformable Radiance Fields for Disentangled Image Synthesis
of Topology-Varying Objects [52.46838926521572]
3D認識生成モデルは、モノクロ2D画像の集合から3Dニューラル放射場(NeRF)を生成するスーパーブパフォーマンスを実証した。
本研究では, トポロジー変化物体の放射場を非交絡形状と外観変化で合成する生成モデルを提案する。
論文 参考訳(メタデータ) (2022-09-09T08:44:06Z) - Image Generators with Conditionally-Independent Pixel Synthesis [10.792933031825527]
画像生成のための新しいアーキテクチャを提案し,各画素の色値を独立に計算する。
合成中は、空間的畳み込みや、画素間で情報を伝達する同様の操作は関与しない。
本研究では, 逆方向の学習において, このようなジェネレータのモデリング能力を解析し, 新しいジェネレータを観察して, 最先端の畳み込みジェネレータに類似した生成品質を実現する。
論文 参考訳(メタデータ) (2020-11-27T15:16:11Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。