論文の概要: $S^2$NeRF: Privacy-preserving Training Framework for NeRF
- arxiv url: http://arxiv.org/abs/2409.01661v1
- Date: Tue, 3 Sep 2024 07:08:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 02:30:20.896907
- Title: $S^2$NeRF: Privacy-preserving Training Framework for NeRF
- Title(参考訳): S^2$NeRF: NeRFのためのプライバシ保護トレーニングフレームワーク
- Authors: Bokang Zhang, Yanglin Zhang, Zhikun Zhang, Jinglan Yang, Lingying Huang, Junfeng Wu,
- Abstract要約: Neural Radiance Fields (NeRF)は、3Dコンピュータビジョンとグラフィックスに革命をもたらし、新しいビュー合成を促進し、拡張現実やeコマースのようなセクターに影響を与える。
センシティブなシーン画像データを含む広範なデータ収集へのNeRFの依存は、ユーザーがモデルトレーニングのためにこのデータをアップロードした場合に、重大なプライバシー上のリスクをもたらす。
まず、スプリットラーニング(SL)技術を取り入れたトレーニングフレームワークであるSplitNeRFを提案し、ローカルデータを共有せずにクライアントとサーバ間のプライバシー保護協調モデルトレーニングを可能にする。
- 参考スコア(独自算出の注目度): 6.427815492885316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields (NeRF) have revolutionized 3D computer vision and graphics, facilitating novel view synthesis and influencing sectors like extended reality and e-commerce. However, NeRF's dependence on extensive data collection, including sensitive scene image data, introduces significant privacy risks when users upload this data for model training. To address this concern, we first propose SplitNeRF, a training framework that incorporates split learning (SL) techniques to enable privacy-preserving collaborative model training between clients and servers without sharing local data. Despite its benefits, we identify vulnerabilities in SplitNeRF by developing two attack methods, Surrogate Model Attack and Scene-aided Surrogate Model Attack, which exploit the shared gradient data and a few leaked scene images to reconstruct private scene information. To counter these threats, we introduce $S^2$NeRF, secure SplitNeRF that integrates effective defense mechanisms. By introducing decaying noise related to the gradient norm into the shared gradient information, $S^2$NeRF preserves privacy while maintaining a high utility of the NeRF model. Our extensive evaluations across multiple datasets demonstrate the effectiveness of $S^2$NeRF against privacy breaches, confirming its viability for secure NeRF training in sensitive applications.
- Abstract(参考訳): Neural Radiance Fields (NeRF)は、3Dコンピュータビジョンとグラフィックスに革命をもたらし、新しいビュー合成を促進し、拡張現実やeコマースのようなセクターに影響を与える。
しかし、NeRFの機密画像データを含む広範囲なデータ収集への依存は、ユーザーがモデルトレーニングのためにこのデータをアップロードする際、重大なプライバシー上のリスクをもたらす。
この問題に対処するために、まず、スプリットラーニング(SL)技術を取り入れたトレーニングフレームワークであるSplitNeRFを提案し、ローカルデータを共有せずにクライアントとサーバ間のプライバシー保護協調モデルトレーニングを可能にする。
その利点にもかかわらず、我々は2つの攻撃方法であるSurrogate Model AttackとScene-aided Surrogate Model Attackを開発することでSplitNeRFの脆弱性を特定する。
これらの脅威に対処するために、有効な防御機構を統合するセキュアなSplitNeRFである$S^2$NeRFを導入する。
勾配ノルムに関連する減衰ノイズを共有勾配情報に導入することにより、$S^2$NeRFはNeRFモデルの高実用性を維持しつつプライバシを保存する。
複数のデータセットにわたる広範な評価は、プライバシー侵害に対する$S^2$NeRFの有効性を示し、センシティブなアプリケーションにおけるセキュアなNeRFトレーニングの実現性を確認します。
関連論文リスト
- Federated Learning Nodes Can Reconstruct Peers' Image Data [27.92271597111756]
Federated Learning(FL)は、複数のノードがローカルデータ上でモデルをトレーニングできるようにする、プライバシ保護機械学習フレームワークである。
以前の研究によると、FLの勾配共有ステップは、正直だが正確な中央サーバーからのデータ再構成攻撃に弱い可能性がある。
正直なノード/クライアントは、集中型システムでピアのイメージデータを再構築する攻撃を起動し、深刻なプライバシーリスクを生じさせることを示す。
論文 参考訳(メタデータ) (2024-10-07T00:18:35Z) - No Vandalism: Privacy-Preserving and Byzantine-Robust Federated Learning [18.1129191782913]
フェデレートされた学習により、複数のクライアントがプライベートデータを共有せずに1つの機械学習モデルを共同でトレーニングし、プライバシ保護を提供する。
従来の連合学習は、毒性攻撃に弱いため、モデルの性能を低下させるだけでなく、悪意のあるバックドアを埋め込むこともできる。
本稿では,悪意ある参加者からの攻撃に対して,有害行為(NoV)のない環境を提供するために,プライバシ保護とビザンチン損なうフェデレーション・ラーニング・スキームを構築することを目的とする。
論文 参考訳(メタデータ) (2024-06-03T07:59:10Z) - DecentNeRFs: Decentralized Neural Radiance Fields from Crowdsourced Images [24.92720915349663]
ニューラルレイディアンス場(NeRF)は、世界中で撮影された画像を没入型3D視覚体験に変換する可能性を示している。
これらのキャプチャーされた視覚データのほとんどは、カメラロールにサイロ化されており、画像には個人情報が含まれている。
私たちのアプローチであるDecentNeRFは、分散化されたクラウドソースのNeRFの最初の試みです。
論文 参考訳(メタデータ) (2024-03-19T23:23:35Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - StegaNeRF: Embedding Invisible Information within Neural Radiance Fields [61.653702733061785]
我々は、NeRFレンダリングにステガノグラフィー情報を埋め込む方法であるStegaNeRFを提案する。
我々は、NeRFで描画された画像から正確な隠れ情報抽出を可能にする最適化フレームワークを設計する。
StegaNeRFは、NeRFレンダリングにカスタマイズ可能で、認識不能で、回復不能な情報を注入する新しい問題に対する最初の調査である。
論文 参考訳(メタデータ) (2022-12-03T12:14:19Z) - Data-free Defense of Black Box Models Against Adversarial Attacks [12.935628113055913]
データフリーセットアップにおける敵攻撃に対するブラックボックスモデルに対する新しい防御機構を提案する。
生成モデルを用いて合成データを構築し, モデルステルス手法を用いてサロゲートネットワークを訓練する。
本手法は,CIFAR-10の対向精度を38.98%,32.01%向上させる。
論文 参考訳(メタデータ) (2022-11-03T04:19:27Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。