論文の概要: Intuitive Shape Editing in Latent Space
- arxiv url: http://arxiv.org/abs/2111.12488v1
- Date: Wed, 24 Nov 2021 13:33:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 14:59:11.085051
- Title: Intuitive Shape Editing in Latent Space
- Title(参考訳): 潜在空間における直感的形状編集
- Authors: Tim Elsner, Moritz Ibing, Victor Czech, Julius Nehring-Wirxel, Leif
Kobbelt
- Abstract要約: 本稿では,潜伏部分空間をアンタングル化することで,潜伏空間における直感的な形状編集を可能にするオートエンコーダに基づく手法を提案する。
我々は,この手法を最先端のデータ駆動型形状編集法と比較することで評価する。
- 参考スコア(独自算出の注目度): 9.034665429931406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of autoencoders for shape generation and editing suffers from
manipulations in latent space that may lead to unpredictable changes in the
output shape. We present an autoencoder-based method that enables intuitive
shape editing in latent space by disentangling latent sub-spaces to obtain
control points on the surface and style variables that can be manipulated
independently. The key idea is adding a Lipschitz-type constraint to the loss
function, i.e. bounding the change of the output shape proportionally to the
change in latent space, leading to interpretable latent space representations.
The control points on the surface can then be freely moved around, allowing for
intuitive shape editing directly in latent space. We evaluate our method by
comparing it to state-of-the-art data-driven shape editing methods. Besides
shape manipulation, we demonstrate the expressiveness of our control points by
leveraging them for unsupervised part segmentation.
- Abstract(参考訳): 形状生成と編集のためのオートエンコーダの使用は、出力形状の予測不能な変更につながる可能性のある潜在空間での操作に苦しむ。
本稿では, 潜在部分空間を分離して, 面上の制御点と, 独立に操作可能なスタイル変数を得ることにより, 潜在空間における直感的な形状編集を可能にするオートエンコーダベースの手法を提案する。
鍵となる考え方は、損失関数にリプシッツ型制約を加えることであり、すなわち、出力形状の変化を潜在空間の変化に比例して有界化し、解釈可能な潜在空間表現をもたらす。
表面上の制御ポイントは自由に移動でき、直観的な形状を潜在空間で直接編集できる。
本手法を最先端データ駆動型形状編集手法と比較することにより評価した。
形状操作の他に,制御点を教師なし部分セグメンテーションに活用して表現性を示す。
関連論文リスト
- MagicStick: Controllable Video Editing via Control Handle Transformations [49.29608051543133]
MagicStickは、抽出した内部制御信号の変換を利用してビデオプロパティを編集する、制御可能なビデオ編集方法である。
統合フレームワークにおける多数の実例について実験を行った。
また、形状対応テキストベースの編集や手作り動画生成と比較し、従来の作品よりも優れた時間的一貫性と編集能力を示した。
論文 参考訳(メタデータ) (2023-12-05T17:58:06Z) - Shape-aware Text-driven Layered Video Editing [39.56765973770167]
形状変化に対処する形状認識型テキスト駆動ビデオ編集手法を提案する。
まず、入力と編集されたすべてのフレーム間の変形場を伝搬する。
次に、事前学習したテキスト条件拡散モデルを用いて、形状歪みを補正し、目に見えない領域を完成させる。
論文 参考訳(メタデータ) (2023-01-30T18:41:58Z) - Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - Shape-Guided Diffusion with Inside-Outside Attention [60.557437251084465]
テキストから画像への拡散モデルにおけるユーザ制御の新たな形態として,正確なオブジェクトシルエットを導入する。
トレーニング不要な手法は、内外注意機構を用いて、交差及び自己注意マップに形状制約を適用する。
論文 参考訳(メタデータ) (2022-12-01T01:39:28Z) - DeepMLS: Geometry-Aware Control Point Deformation [76.51312491336343]
本稿では,空間に基づく変形技術であるDeepMLSを紹介する。
ニューラルネットワークの力を利用して、下層の形状を変形パラメータに注入する。
本手法は直感的に滑らかな変形をしやすくし, 製造物に適している。
論文 参考訳(メタデータ) (2022-01-05T23:55:34Z) - StylePart: Image-based Shape Part Manipulation [12.441476696381814]
StylePartは、画像と3D形状の両方の生成モデルを活用することにより、画像の直接的な形状操作を可能にするフレームワークである。
我々の重要な貢献は、画像生成潜時空間と3次元人造形状属性潜時空間を接続する形状一貫性潜時写像関数である。
我々は、部品交換、部品のリサイズ、視点操作を含む様々な操作タスクを通じて、我々のアプローチを実証する。
論文 参考訳(メタデータ) (2021-11-20T05:30:08Z) - EditVAE: Unsupervised Part-Aware Controllable 3D Point Cloud Shape
Generation [19.817166425038753]
本稿では,パートアウェアポイントクラウド生成の問題に対処する。
変分オートエンコーダの簡単な修正により、点雲自体のジョイントモデルが得られる。
歪んだ表現によって得られる柔軟性に加えて、我々のジョイントモデリングアプローチによって導入された帰納バイアスは、ShapeNetデータセットの最先端の実験結果をもたらす。
論文 参考訳(メタデータ) (2021-10-13T12:38:01Z) - Learning to Infer Semantic Parameters for 3D Shape Editing [14.902766305317202]
入力形状のセマンティックパラメータを推論するディープネットワークを学習し,そのパラメータをユーザが操作できるようにする。
このネットワークは、補助的な合成テンプレートとラベルなしのリアルモデルから形状を共同で訓練する。
椅子,飛行機,人体などのデータセットを用いた実験により,本手法が従来よりも自然に編集できることが実証された。
論文 参考訳(メタデータ) (2020-11-09T20:58:49Z) - PIE: Portrait Image Embedding for Semantic Control [82.69061225574774]
本稿では,StyleGANの潜在空間に実際の肖像画を埋め込むための最初のアプローチを提案する。
トレーニング済みのニューラルネットワークであるStyleRigは、3D形態素顔モデルの制御空間をGANの潜在空間にマッピングする。
アイデンティティエネルギー保存用語は、顔の整合性を維持しながら空間的コヒーレントな編集を可能にする。
論文 参考訳(メタデータ) (2020-09-20T17:53:51Z) - Learning to Manipulate Individual Objects in an Image [71.55005356240761]
本稿では,独立性および局所性を有する潜在因子を用いた生成モデルを学習する手法について述べる。
これは、潜伏変数の摂動が、オブジェクトに対応する合成画像の局所領域のみに影響を与えることを意味する。
他の教師なし生成モデルとは異なり、オブジェクトレベルのアノテーションを必要とせず、オブジェクト中心の操作を可能にする。
論文 参考訳(メタデータ) (2020-04-11T21:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。