論文の概要: Privacy Preserving Visual SLAM
- arxiv url: http://arxiv.org/abs/2007.10361v2
- Date: Mon, 27 Jul 2020 07:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:16:18.911331
- Title: Privacy Preserving Visual SLAM
- Title(参考訳): プライバシ保護ビジュアルslam
- Authors: Mikiya Shibuya, Shinya Sumikura, and Ken Sakurada
- Abstract要約: 本研究では、カメラのポーズを推定し、混合線と点雲によるバンドル調整をリアルタイムで行うためのプライバシー保護型Visual SLAMフレームワークを提案する。
従来の研究では、単一画像や再構成点雲のラインクラウドマップを用いて、カメラのポーズを推定するローカライズ手法が提案されている。
当社のフレームワークは,行クラウドマップを用いて,意図したプライバシ保護の形成とリアルタイムパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 11.80598014760818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes a privacy-preserving Visual SLAM framework for estimating
camera poses and performing bundle adjustment with mixed line and point clouds
in real time. Previous studies have proposed localization methods to estimate a
camera pose using a line-cloud map for a single image or a reconstructed point
cloud. These methods offer a scene privacy protection against the inversion
attacks by converting a point cloud to a line cloud, which reconstruct the
scene images from the point cloud. However, they are not directly applicable to
a video sequence because they do not address computational efficiency. This is
a critical issue to solve for estimating camera poses and performing bundle
adjustment with mixed line and point clouds in real time. Moreover, there has
been no study on a method to optimize a line-cloud map of a server with a point
cloud reconstructed from a client video because any observation points on the
image coordinates are not available to prevent the inversion attacks, namely
the reversibility of the 3D lines. The experimental results with synthetic and
real data show that our Visual SLAM framework achieves the intended
privacy-preserving formation and real-time performance using a line-cloud map.
- Abstract(参考訳): 本研究では、カメラのポーズを推定し、混合線と点雲によるバンドル調整をリアルタイムで行うためのプライバシー保護型Visual SLAMフレームワークを提案する。
従来の研究では、単一画像や再構成点雲のラインクラウドマップを用いて、カメラのポーズを推定するローカライズ手法が提案されている。
これらの手法は、ポイントクラウドをラインクラウドに変換し、ポイントクラウドからシーンイメージを再構築することで、インバージョン攻撃に対するシーンプライバシ保護を提供する。
しかし、それらは計算効率に対処しないため、ビデオシーケンスに直接は適用されない。
これは、カメラのポーズを推定し、混合線と点雲をリアルタイムにバンドル調整する上で、解決すべき重要な問題である。
さらに,画像座標上の観察点が利用できないため,サーバのラインクラウドマップをクライアントビデオから再構成したポイントクラウドで最適化する方法についての研究は行われていない。
合成および実データによる実験結果から、私たちのVisual SLAMフレームワークは、ラインクラウドマップを用いて、意図したプライバシ保護とリアルタイムパフォーマンスを実現する。
関連論文リスト
- Zero-Shot Point Cloud Registration [94.39796531154303]
ZeroRegは、ポイントクラウドデータセットのトレーニングを不要にする最初のゼロショットポイントクラウド登録アプローチである。
ZeroRegの基盤は、キーポイントからポイントクラウドへの画像特徴の新たな移行であり、三次元幾何学的近傍からの情報を集約することによって強化されている。
3DMatch、3DLoMatch、ScanNetなどのベンチマークでは、ZeroRegはそれぞれ84%、46%、75%という印象的なリコール比(RR)を達成した。
論文 参考訳(メタデータ) (2023-12-05T11:33:16Z) - PRED: Pre-training via Semantic Rendering on LiDAR Point Clouds [18.840000859663153]
本稿では,屋外点雲のための画像支援事前学習フレームワークPreDを提案する。
我々のフレームワークの主な構成要素は、Birds-Eye-View (BEV) 機能マップ条件付きセマンティックレンダリングである。
我々は、高マスキング比のポイントワイドマスクを組み込むことにより、モデルの性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-11-08T07:26:09Z) - Masked Spatio-Temporal Structure Prediction for Self-supervised Learning
on Point Cloud Videos [75.9251839023226]
人間のアノテーションを使わずにポイントクラウドビデオの構造をキャプチャするMasked-temporal Structure Prediction (MaST-Pre)法を提案する。
MaST-Preは,2つの自己指導型学習タスクから構成される。まず,マスク付きポイントチューブを再構築することにより,ポイントクラウドビデオの出現情報を捉えることができる。
第2に、動作を学習するために、点管内の点数の変化を推定する時間的濃度差予測タスクを提案する。
論文 参考訳(メタデータ) (2023-08-18T02:12:54Z) - EPCL: Frozen CLIP Transformer is An Efficient Point Cloud Encoder [60.52613206271329]
本稿では,冷凍CLIP変換器を用いて高品質のクラウドモデルをトレーニングするための textbfEfficient textbfPoint textbfCloud textbfLearning (EPCL) を提案する。
我々のEPCLは、2D-3Dデータをペア化せずに画像の特徴と点雲の特徴を意味的に整合させることで、2Dと3Dのモダリティを接続する。
論文 参考訳(メタデータ) (2022-12-08T06:27:11Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - A No-reference Quality Assessment Metric for Point Cloud Based on
Captured Video Sequences [40.46566408312466]
キャプチャーされたビデオシーケンスに基づいて,色付き点雲の非参照品質評価指標を提案する。
実験の結果,本手法はPCQAの基準値と非参照PCQAの基準値のほとんどより優れていた。
論文 参考訳(メタデータ) (2022-06-09T06:42:41Z) - Shape-invariant 3D Adversarial Point Clouds [111.72163188681807]
逆境と不可視性は、逆境の摂動の2つの基本的だが矛盾する性格である。
3Dポイントのクラウド認識に対する以前の敵対的攻撃は、しばしば目立ったポイントアウトリーチによって批判された。
本稿では,点摂動の効率性と非受容性を両立させる新しい点-クラウド感度マップを提案する。
論文 参考訳(メタデータ) (2022-03-08T12:21:35Z) - PICCOLO: Point Cloud-Centric Omnidirectional Localization [20.567452635590943]
一方向局所化のための単純かつ効率的なアルゴリズムであるPICCOLOを提案する。
私たちのパイプラインは、クエリとして与えられた単一のイメージで、既定の方法で動作します。
PICCOLOは、様々な環境で評価された場合、既存の全方位ローカライゼーションアルゴリズムよりも精度と安定性が優れている。
論文 参考訳(メタデータ) (2021-08-14T14:19:37Z) - How Privacy-Preserving are Line Clouds? Recovering Scene Details from 3D
Lines [49.06411148698547]
本稿では,3次元シーン形状に関する情報がライン雲に保存されていることを示す。
我々のアプローチは、直線間の最接近点が元の3d点に良い近似をもたらすという観測に基づいている。
論文 参考訳(メタデータ) (2021-03-08T21:32:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。