論文の概要: Rigidity-Aware 3D Gaussian Deformation from a Single Image
- arxiv url: http://arxiv.org/abs/2509.22222v1
- Date: Fri, 26 Sep 2025 11:34:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.393971
- Title: Rigidity-Aware 3D Gaussian Deformation from a Single Image
- Title(参考訳): 剛性を考慮した1枚の画像からの3次元ガウス変形
- Authors: Jinhyeok Kim, Jaehun Bang, Seunghyun Seo, Kyungdon Joo,
- Abstract要約: 単一の画像のみから3次元ガウス変形を導く新しいフレームワークであるDeformSplatを提案する。
また,3次元ガウス表現と2次元画素観測の領域ギャップを埋めるガウス対Pixelマッチングを提案する。
これら2つの手法を組み合わせることで,1つの画像から一貫した変形を再構成することができる。
- 参考スコア(独自算出の注目度): 12.08044152819999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing object deformation from a single image remains a significant challenge in computer vision and graphics. Existing methods typically rely on multi-view video to recover deformation, limiting their applicability under constrained scenarios. To address this, we propose DeformSplat, a novel framework that effectively guides 3D Gaussian deformation from only a single image. Our method introduces two main technical contributions. First, we present Gaussian-to-Pixel Matching which bridges the domain gap between 3D Gaussian representations and 2D pixel observations. This enables robust deformation guidance from sparse visual cues. Second, we propose Rigid Part Segmentation consisting of initialization and refinement. This segmentation explicitly identifies rigid regions, crucial for maintaining geometric coherence during deformation. By combining these two techniques, our approach can reconstruct consistent deformations from a single image. Extensive experiments demonstrate that our approach significantly outperforms existing methods and naturally extends to various applications,such as frame interpolation and interactive object manipulation.
- Abstract(参考訳): 単一の画像からオブジェクトの変形を再構築することは、コンピュータビジョンとグラフィックスにおいて重要な課題である。
既存の手法は通常、変形を回復するためにマルチビュービデオに依存し、制約されたシナリオ下での適用性を制限する。
そこで本研究では,1枚の画像のみから3次元ガウス変形を効果的に導く新しいフレームワークであるDeformSplatを提案する。
本手法は2つの主要な技術的貢献を紹介する。
まず,3次元ガウス表現と2次元画素観測の領域ギャップを埋めるガウス対Pixelマッチングを提案する。
これにより、粗い視覚的手がかりから堅牢な変形誘導が可能になる。
第2に,初期化と改良によるリギッド部分分割を提案する。
このセグメンテーションは、変形中の幾何学的コヒーレンスを維持するために不可欠である硬い領域を明確に特定する。
これら2つの手法を組み合わせることで,1つの画像から一貫した変形を再構成することができる。
大規模な実験により,本手法は既存の手法を著しく上回り,フレーム補間や対話型オブジェクト操作など,様々な用途に自然に適用可能であることが示された。
関連論文リスト
- A new approach for image segmentation based on diffeomorphic registration and gradient fields [0.8158530638728501]
本稿では,2次元画像分割のための新しい変分フレームワークを提案する。
本手法は,画像領域の微分同相変換によるテンプレート曲線の変形としてセグメンテーションをモデル化する。
このアプローチはPythonで実装されており、PyKeopsライブラリを使用してGPUアクセラレーションを行う。
論文 参考訳(メタデータ) (2025-06-11T03:16:15Z) - Canonical Pose Reconstruction from Single Depth Image for 3D Non-rigid Pose Recovery on Limited Datasets [55.84702107871358]
2Dインプットからの3D再構成、特に人間のような非剛体オブジェクトは、ユニークな課題を提示する。
従来の手法は、変形空間全体をカバーするために広範囲なトレーニングデータを必要とする非剛体形状に苦しむことが多い。
本研究では,変形可能な形状の単一視点深度画像を標準形に変換する正準ポーズ再構成モデルを提案する。
論文 参考訳(メタデータ) (2025-05-23T14:58:34Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - DeFormer: Integrating Transformers with Deformable Models for 3D Shape
Abstraction from a Single Image [31.154786931081087]
本稿では,パラメータ化デフォルマブルモデルと統合された新しいバイチャネルトランスフォーマアーキテクチャを提案し,プリミティブのグローバルおよび局所的な変形を同時に推定する。
DeFormerは、最先端技術よりもより良い再構築精度を実現し、一貫したセマンティック対応で可視化し、解釈性を向上させる。
論文 参考訳(メタデータ) (2023-09-22T02:46:43Z) - Geo-SIC: Learning Deformable Geometric Shapes in Deep Image Classifiers [8.781861951759948]
本稿では,画像分類の性能向上のために,変形空間における変形可能な形状を学習する最初のディープラーニングモデルGeo-SICを提案する。
画像空間と潜時形状空間の両方から特徴を同時に導出する,クラス内変動の大きい新設計のフレームワークを提案する。
幾何学的形状表現の教師なし学習を取り入れた強化型分類網を開発した。
論文 参考訳(メタデータ) (2022-10-25T01:55:17Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z) - Dense Non-Rigid Structure from Motion: A Manifold Viewpoint [162.88686222340962]
Non-Rigid Structure-from-Motion (NRSfM) 問題は、複数のフレームにまたがる2次元特徴対応から変形物体の3次元形状を復元することを目的としている。
提案手法は,ノイズに対する精度,スケーラビリティ,堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2020-06-15T09:15:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。