論文の概要: Privacy Preserving Visual SLAM
- arxiv url: http://arxiv.org/abs/2007.10361v2
- Date: Mon, 27 Jul 2020 07:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:16:18.911331
- Title: Privacy Preserving Visual SLAM
- Title(参考訳): プライバシ保護ビジュアルslam
- Authors: Mikiya Shibuya, Shinya Sumikura, and Ken Sakurada
- Abstract要約: 本研究では、カメラのポーズを推定し、混合線と点雲によるバンドル調整をリアルタイムで行うためのプライバシー保護型Visual SLAMフレームワークを提案する。
従来の研究では、単一画像や再構成点雲のラインクラウドマップを用いて、カメラのポーズを推定するローカライズ手法が提案されている。
当社のフレームワークは,行クラウドマップを用いて,意図したプライバシ保護の形成とリアルタイムパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 11.80598014760818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes a privacy-preserving Visual SLAM framework for estimating
camera poses and performing bundle adjustment with mixed line and point clouds
in real time. Previous studies have proposed localization methods to estimate a
camera pose using a line-cloud map for a single image or a reconstructed point
cloud. These methods offer a scene privacy protection against the inversion
attacks by converting a point cloud to a line cloud, which reconstruct the
scene images from the point cloud. However, they are not directly applicable to
a video sequence because they do not address computational efficiency. This is
a critical issue to solve for estimating camera poses and performing bundle
adjustment with mixed line and point clouds in real time. Moreover, there has
been no study on a method to optimize a line-cloud map of a server with a point
cloud reconstructed from a client video because any observation points on the
image coordinates are not available to prevent the inversion attacks, namely
the reversibility of the 3D lines. The experimental results with synthetic and
real data show that our Visual SLAM framework achieves the intended
privacy-preserving formation and real-time performance using a line-cloud map.
- Abstract(参考訳): 本研究では、カメラのポーズを推定し、混合線と点雲によるバンドル調整をリアルタイムで行うためのプライバシー保護型Visual SLAMフレームワークを提案する。
従来の研究では、単一画像や再構成点雲のラインクラウドマップを用いて、カメラのポーズを推定するローカライズ手法が提案されている。
これらの手法は、ポイントクラウドをラインクラウドに変換し、ポイントクラウドからシーンイメージを再構築することで、インバージョン攻撃に対するシーンプライバシ保護を提供する。
しかし、それらは計算効率に対処しないため、ビデオシーケンスに直接は適用されない。
これは、カメラのポーズを推定し、混合線と点雲をリアルタイムにバンドル調整する上で、解決すべき重要な問題である。
さらに,画像座標上の観察点が利用できないため,サーバのラインクラウドマップをクライアントビデオから再構成したポイントクラウドで最適化する方法についての研究は行われていない。
合成および実データによる実験結果から、私たちのVisual SLAMフレームワークは、ラインクラウドマップを用いて、意図したプライバシ保護とリアルタイムパフォーマンスを実現する。
関連論文リスト
- PointRecon: Online Point-based 3D Reconstruction via Ray-based 2D-3D Matching [10.5792547614413]
単眼RGBビデオからオンラインのポイントベース3D再構成手法を提案する。
我々のモデルは、シーンのグローバルなポイントクラウド表現を維持し、新しい画像が観察されるにつれて、特徴とポイントの3D位置を継続的に更新する。
ScanNetデータセットを用いた実験により,オンラインMVS手法と同等の品質を達成できた。
論文 参考訳(メタデータ) (2024-10-30T17:29:25Z) - PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - GPN: Generative Point-based NeRF [0.65268245109828]
我々は,部分的な雲を復元し,修復するために生成点ベースのNeRF (GPN) を提案する。
補修された点雲は、高空間分解能で撮像された画像との多視点整合を達成することができる。
論文 参考訳(メタデータ) (2024-04-12T08:14:17Z) - OmniColor: A Global Camera Pose Optimization Approach of LiDAR-360Camera Fusion for Colorizing Point Clouds [15.11376768491973]
単純で効率的な3D表現としてのカラーポイントクラウドは、様々な分野において多くの利点がある。
本稿では,独立系360度カメラを用いて点雲をカラー化するための,新規で効率的なアルゴリズムであるOmniColorを提案する。
論文 参考訳(メタデータ) (2024-04-06T17:41:36Z) - Few-shot point cloud reconstruction and denoising via learned Guassian splats renderings and fine-tuned diffusion features [52.62053703535824]
本稿では,少数の画像から点雲を再構成し,そのレンダリングから点雲を識別する手法を提案する。
制約条件下での再構成を改善するため,ハイブリッド表面と外観の相違点のトレーニングを規則化する。
これらの学習したフィルタを使って、3Dの監督なしに来る点雲ノイズを除去する方法を実証する。
論文 参考訳(メタデータ) (2024-04-01T13:38:16Z) - Zero-Shot Point Cloud Registration [94.39796531154303]
ZeroRegは、ポイントクラウドデータセットのトレーニングを不要にする最初のゼロショットポイントクラウド登録アプローチである。
ZeroRegの基盤は、キーポイントからポイントクラウドへの画像特徴の新たな移行であり、三次元幾何学的近傍からの情報を集約することによって強化されている。
3DMatch、3DLoMatch、ScanNetなどのベンチマークでは、ZeroRegはそれぞれ84%、46%、75%という印象的なリコール比(RR)を達成した。
論文 参考訳(メタデータ) (2023-12-05T11:33:16Z) - PRED: Pre-training via Semantic Rendering on LiDAR Point Clouds [18.840000859663153]
本稿では,屋外点雲のための画像支援事前学習フレームワークPreDを提案する。
我々のフレームワークの主な構成要素は、Birds-Eye-View (BEV) 機能マップ条件付きセマンティックレンダリングである。
我々は、高マスキング比のポイントワイドマスクを組み込むことにより、モデルの性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-11-08T07:26:09Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - Shape-invariant 3D Adversarial Point Clouds [111.72163188681807]
逆境と不可視性は、逆境の摂動の2つの基本的だが矛盾する性格である。
3Dポイントのクラウド認識に対する以前の敵対的攻撃は、しばしば目立ったポイントアウトリーチによって批判された。
本稿では,点摂動の効率性と非受容性を両立させる新しい点-クラウド感度マップを提案する。
論文 参考訳(メタデータ) (2022-03-08T12:21:35Z) - How Privacy-Preserving are Line Clouds? Recovering Scene Details from 3D
Lines [49.06411148698547]
本稿では,3次元シーン形状に関する情報がライン雲に保存されていることを示す。
我々のアプローチは、直線間の最接近点が元の3d点に良い近似をもたらすという観測に基づいている。
論文 参考訳(メタデータ) (2021-03-08T21:32:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。