論文の概要: ConcealGS: Concealing Invisible Copyright Information in 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2501.03605v1
- Date: Tue, 07 Jan 2025 08:06:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:49:09.819621
- Title: ConcealGS: Concealing Invisible Copyright Information in 3D Gaussian Splatting
- Title(参考訳): ConcealGS:3Dガウススティングにおける不可視的著作権情報の収集
- Authors: Yifeng Yang, Hengyu Liu, Chenxin Li, Yining Sun, Wuyang Li, Yifan Liu, Yiyang Lin, Yixuan Yuan, Nanyang Ye,
- Abstract要約: ConcealGSは、3D-GSフォーマットに暗黙の情報を埋め込む革新的な方法である。
3D-GSに基づく知識蒸留と勾配最適化戦略を導入することで、ConcealGSはNeRFベースのモデルの限界を克服する。
実験の結果、ConcealGSは暗黙の情報を回復するだけでなく、レンダリング品質にもほとんど影響を与えないことが示されている。
- 参考スコア(独自算出の注目度): 34.39215232945885
- License:
- Abstract: With the rapid development of 3D reconstruction technology, the widespread distribution of 3D data has become a future trend. While traditional visual data (such as images and videos) and NeRF-based formats already have mature techniques for copyright protection, steganographic techniques for the emerging 3D Gaussian Splatting (3D-GS) format have yet to be fully explored. To address this, we propose ConcealGS, an innovative method for embedding implicit information into 3D-GS. By introducing the knowledge distillation and gradient optimization strategy based on 3D-GS, ConcealGS overcomes the limitations of NeRF-based models and enhances the robustness of implicit information and the quality of 3D reconstruction. We evaluate ConcealGS in various potential application scenarios, and experimental results have demonstrated that ConcealGS not only successfully recovers implicit information but also has almost no impact on rendering quality, providing a new approach for embedding invisible and recoverable information into 3D models in the future.
- Abstract(参考訳): 3次元再構成技術の急速な発展に伴い,3次元データの広範分布が今後の動向となっている。
従来の視覚データ(画像やビデオなど)やNeRFベースのフォーマットはすでに著作権保護のための成熟した技術を持っているが、新しい3Dガウス・スプラッティング(3D-GS)フォーマットのステガノグラフィー技術はまだ十分に研究されていない。
そこで我々は3D-GSに暗黙の情報を埋め込む革新的な手法であるConcealGSを提案する。
3D-GSに基づく知識蒸留と勾配最適化戦略を導入することで、ConcealGSはNeRFベースのモデルの限界を克服し、暗黙的な情報の堅牢性と3D再構成の品質を高める。
我々はConcealGSを様々な潜在的なアプリケーションシナリオで評価し、実験結果から、ConcealGSは暗黙の情報を回復するだけでなく、レンダリング品質にもほとんど影響を与えないことが証明された。
関連論文リスト
- TripoSG: High-Fidelity 3D Shape Synthesis using Large-Scale Rectified Flow Models [69.0220314849478]
TripoSGは入力画像に正確に対応して高忠実度3Dメッシュを生成することができる新しいパラダイムである。
結果として得られた3D形状は、高解像度の能力によって細部を拡大し、入力した現在年齢に対して例外的な忠実さを示す。
3Dジェネレーションの分野における進歩と革新を促進するため、我々はモデルを一般公開する。
論文 参考訳(メタデータ) (2025-02-10T16:07:54Z) - Splats in Splats: Embedding Invisible 3D Watermark within Gaussian Splatting [28.790625685438677]
WaterGSは、バニラ3DGSの属性を変更することなく、3DGS自体に3Dコンテンツを埋め込む最初の3DGS透かしフレームワークである。
テストの結果、WaterGSは既存の3Dステガノグラフィー技術を大きく上回り、シーンの忠実度は5.31%、レンダリング速度は3倍に向上した。
論文 参考訳(メタデータ) (2024-12-04T08:40:11Z) - 3DGS-Enhancer: Enhancing Unbounded 3D Gaussian Splatting with View-consistent 2D Diffusion Priors [13.191199172286508]
新規ビュー合成は、複数の入力画像やビデオからシーンの新しいビューを生成することを目的としている。
3DGS-Enhancerは、3DGS表現の表現品質を向上させるための新しいパイプラインである。
論文 参考訳(メタデータ) (2024-10-21T17:59:09Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - GaussianStego: A Generalizable Stenography Pipeline for Generative 3D Gaussians Splatting [38.33958617286536]
GaussianStegoは、生成された3Dアセットのレンダリングにステガノグラフ情報を埋め込む方法である。
提案手法では,隠れた情報の正確な抽出を可能にする最適化フレームワークを採用している。
論文 参考訳(メタデータ) (2024-07-01T13:57:44Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - Bootstrap 3D Reconstructed Scenes from 3D Gaussian Splatting [10.06208115191838]
トレーニングされた3D-GSを用いて,新しいビューのレンダリングを強化するブートストラップ手法を提案する。
以上の結果から,ブートストレッピングはアーティファクトを効果的に削減し,評価指標の明確化を図っている。
論文 参考訳(メタデータ) (2024-04-29T12:57:05Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - A Survey on 3D Gaussian Splatting [51.96747208581275]
3D Gaussian splatting (GS) は、明示的なラディアンス場とコンピュータグラフィックスの領域において、トランスフォーメーション技術として登場した。
本稿では,3D GSの領域における最近の発展と重要な貢献について,初めて体系的に概説する。
前例のないレンダリング速度を実現することで、3D GSは、仮想現実からインタラクティブメディアなど、数多くのアプリケーションを開くことができる。
論文 参考訳(メタデータ) (2024-01-08T13:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。