論文の概要: GaussianMarker: Uncertainty-Aware Copyright Protection of 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2410.23718v1
- Date: Thu, 31 Oct 2024 08:08:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:01:53.077748
- Title: GaussianMarker: Uncertainty-Aware Copyright Protection of 3D Gaussian Splatting
- Title(参考訳): GaussianMarker:3Dガウススプティングの不確かさを意識した著作権保護
- Authors: Xiufeng Huang, Ruiqi Li, Yiu-ming Cheung, Ka Chun Cheung, Simon See, Renjie Wan,
- Abstract要約: デジタル透かし技術は、3DGSモデルに個別に所有権情報を埋め込むために応用できる。
予めトレーニングされた3DGSに透かしを埋め込むと、描画画像に明らかな歪みが生じます。
モデルパラメータの摂動を制限する不確実性に基づく3DGSの透かしを実現する手法を提案する。
- 参考スコア(独自算出の注目度): 41.90891053671943
- License:
- Abstract: 3D Gaussian Splatting (3DGS) has become a crucial method for acquiring 3D assets. To protect the copyright of these assets, digital watermarking techniques can be applied to embed ownership information discreetly within 3DGS models. However, existing watermarking methods for meshes, point clouds, and implicit radiance fields cannot be directly applied to 3DGS models, as 3DGS models use explicit 3D Gaussians with distinct structures and do not rely on neural networks. Naively embedding the watermark on a pre-trained 3DGS can cause obvious distortion in rendered images. In our work, we propose an uncertainty-based method that constrains the perturbation of model parameters to achieve invisible watermarking for 3DGS. At the message decoding stage, the copyright messages can be reliably extracted from both 3D Gaussians and 2D rendered images even under various forms of 3D and 2D distortions. We conduct extensive experiments on the Blender, LLFF and MipNeRF-360 datasets to validate the effectiveness of our proposed method, demonstrating state-of-the-art performance on both message decoding accuracy and view synthesis quality.
- Abstract(参考訳): 3Dガウススプラッティング(3DGS)は3D資産獲得の重要な方法となっている。
これらの資産の著作権を保護するため、デジタル透かし技術を用いて3DGSモデルに個別に所有権情報を埋め込むことができる。
しかし、メッシュ、点雲、暗黙の放射場に対する既存の透かし法は、3DGSモデルは異なる構造を持つ明示的な3Dガウスモデルを使用し、ニューラルネットワークに依存しないため、直接3DGSモデルに適用することはできない。
予めトレーニングされた3DGSに透かしを埋め込むと、描画画像に明らかな歪みが生じます。
本研究では,モデルパラメータの摂動を制限する不確実性に基づく3DGSの透かしを実現する手法を提案する。
メッセージ復号段階では、3Dガウス画像と2Dレンダリング画像の両方から、様々な形態の3D歪みや2D歪みでも確実に著作権メッセージを抽出することができる。
提案手法の有効性を検証するため,Blender,LLFF,MipNeRF-360データセットを広範囲に実験し,メッセージ復号精度とビュー合成品質の両面において最先端の性能を示す。
関連論文リスト
- 3D-GSW: 3D Gaussian Splatting for Robust Watermarking [5.52538716292462]
モデルとレンダリング画像の両方の所有権を確保する3D-GSのためのロバストな透かし方式を提案する。
提案手法は高いレンダリング品質を維持しながら、レンダリング画像の歪みやモデルアタックに対して頑健である。
論文 参考訳(メタデータ) (2024-09-20T05:16:06Z) - ScalingGaussian: Enhancing 3D Content Creation with Generative Gaussian Splatting [30.99112626706754]
高品質な3Dアセットの作成は、デジタル遺産、エンターテイメント、ロボット工学の応用において最重要である。
伝統的に、このプロセスはモデリングに熟練した専門家と専門的なソフトウェアを必要とする。
本稿では,3Dテクスチャを効率的に生成する新しい3Dコンテンツ作成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-26T18:26:01Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本稿では,現在のアプローチよりも優れた空間感性プルーニングスコアを提案する。
また,事前学習した任意の3D-GSモデルに適用可能なマルチラウンドプルーファインパイプラインを提案する。
我々のパイプラインは、3D-GSの平均レンダリング速度を2.65$times$で増加させ、より健全なフォアグラウンド情報を保持します。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - Mani-GS: Gaussian Splatting Manipulation with Triangular Mesh [44.57625460339714]
本稿では,3DGSを直接自己適応で操作する三角形メッシュを提案する。
提案手法は,高忠実度レンダリングを維持しつつ,大きな変形,局所的な操作,軟体シミュレーションを処理可能である。
論文 参考訳(メタデータ) (2024-05-28T04:13:21Z) - GS-Hider: Hiding Messages into 3D Gaussian Splatting [18.16759704305008]
3Dガウススプラッティング(3DGS)はすでに3Dシーンの再構築と新しいビュー合成の分野における新たな研究の焦点となっている。
このような3D資産の著作権、完全性、プライバシーを保護することが不可欠である。
本稿では,GS-Hiderと呼ばれる3DGSの立体撮影フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T00:18:15Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - AGG: Amortized Generative 3D Gaussians for Single Image to 3D [108.38567665695027]
Amortized Generative 3D Gaussian framework (AGG) を導入する。
AGGは、共同最適化のための3Dガウス位置およびその他の外観特性の生成を分解する。
本稿では,まず3次元データの粗い表現を生成し,後に3次元ガウス超解像モジュールでアップサンプリングするカスケードパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-08T18:56:33Z) - Text-to-3D using Gaussian Splatting [18.163413810199234]
本稿では,最新の最先端表現であるガウススプラッティングをテキストから3D生成に適用する新しい手法であるGSGENを提案する。
GSGENは、高品質な3Dオブジェクトを生成し、ガウススティングの明示的な性質を活用することで既存の欠点に対処することを目的としている。
我々の手法は繊細な細部と正確な形状で3Dアセットを生成することができる。
論文 参考訳(メタデータ) (2023-09-28T16:44:31Z) - Lifting 2D StyleGAN for 3D-Aware Face Generation [52.8152883980813]
我々は,3次元顔生成のための事前学習済みのStyleGAN2を切断し,持ち上げるLiftedGANというフレームワークを提案する。
本モデルは,(1)StyleGAN2の潜伏空間をテクスチャ,形状,視点,照明に分解し,(2)合成画像のための3D成分を生成することができるという意味で「3D認識」である。
論文 参考訳(メタデータ) (2020-11-26T05:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。