論文の概要: How Privacy-Preserving are Line Clouds? Recovering Scene Details from 3D
Lines
- arxiv url: http://arxiv.org/abs/2103.05086v1
- Date: Mon, 8 Mar 2021 21:32:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 15:00:27.856922
- Title: How Privacy-Preserving are Line Clouds? Recovering Scene Details from 3D
Lines
- Title(参考訳): プライバシの保存はいかに行のクラウドか?
3次元ラインからのシーンの復元
- Authors: Kunal Chelani and Fredrik Kahl and Torsten Sattler
- Abstract要約: 本稿では,3次元シーン形状に関する情報がライン雲に保存されていることを示す。
我々のアプローチは、直線間の最接近点が元の3d点に良い近似をもたらすという観測に基づいている。
- 参考スコア(独自算出の注目度): 49.06411148698547
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual localization is the problem of estimating the camera pose of a given
image with respect to a known scene. Visual localization algorithms are a
fundamental building block in advanced computer vision applications, including
Mixed and Virtual Reality systems. Many algorithms used in practice represent
the scene through a Structure-from-Motion (SfM) point cloud and use 2D-3D
matches between a query image and the 3D points for camera pose estimation. As
recently shown, image details can be accurately recovered from SfM point clouds
by translating renderings of the sparse point clouds to images. To address the
resulting potential privacy risks for user-generated content, it was recently
proposed to lift point clouds to line clouds by replacing 3D points by randomly
oriented 3D lines passing through these points. The resulting representation is
unintelligible to humans and effectively prevents point cloud-to-image
translation. This paper shows that a significant amount of information about
the 3D scene geometry is preserved in these line clouds, allowing us to
(approximately) recover the 3D point positions and thus to (approximately)
recover image content. Our approach is based on the observation that the
closest points between lines can yield a good approximation to the original 3D
points. Code is available at https://github.com/kunalchelani/Line2Point.
- Abstract(参考訳): 視覚局所化は、既知のシーンに関して、ある画像のカメラのポーズを推定する問題である。
視覚的ローカリゼーションアルゴリズムは、MixedおよびVirtual Realityシステムを含む高度なコンピュータビジョンアプリケーションにおける基本的なビルディングブロックです。
実際に使用される多くのアルゴリズムは、Structure-from-Motion (SfM)ポイントクラウドを通してシーンを表現し、クエリ画像とカメラのポーズ推定のために3Dポイント間の2D-3Dマッチングを使用する。
最近示したように、スパースポイントクラウドのレンダリングを画像に変換することで、画像の詳細をSfMポイントクラウドから正確に復元できます。
ユーザ生成コンテンツの潜在的なプライバシーリスクに対処するため、最近、3dポイントをランダムに指向した3dラインで置き換えることで、ポイントクラウドをラインクラウドに持ち上げることが提案されている。
結果として得られる表現は人間には理解できず、ポイントクラウドからイメージへの翻訳を効果的に防止します。
本稿では,これらの線状雲に3次元シーン形状に関する情報が保存されており,3次元ポイントの位置を復元し,画像内容の復元を行うことができることを示す。
我々のアプローチは、直線間の最接近点が元の3d点に良い近似をもたらすという観測に基づいている。
コードはhttps://github.com/kunalchelani/Line2Pointで入手できる。
関連論文リスト
- PointRecon: Online Point-based 3D Reconstruction via Ray-based 2D-3D Matching [10.5792547614413]
単眼RGBビデオからオンラインのポイントベース3D再構成手法を提案する。
我々のモデルは、シーンのグローバルなポイントクラウド表現を維持し、新しい画像が観察されるにつれて、特徴とポイントの3D位置を継続的に更新する。
ScanNetデータセットを用いた実験により,オンラインMVS手法と同等の品質を達成できた。
論文 参考訳(メタデータ) (2024-10-30T17:29:25Z) - LucidDreamer: Domain-free Generation of 3D Gaussian Splatting Scenes [52.31402192831474]
しかし、既存の3Dシーン生成モデルは、ターゲットシーンを特定のドメインに制限する。
ドメインフリーシーン生成パイプラインであるLucidDreamerを提案する。
LucidDreamerは、ターゲットシーンのドメインに制約がなく、高詳細なガウススプラットを生成する。
論文 参考訳(メタデータ) (2023-11-22T13:27:34Z) - EP2P-Loc: End-to-End 3D Point to 2D Pixel Localization for Large-Scale
Visual Localization [44.05930316729542]
本稿では,3次元点雲の大規模可視化手法EP2P-Locを提案する。
画像中の見えない3D点を除去する簡単なアルゴリズムを提案する。
このタスクで初めて、エンドツーエンドのトレーニングに差別化可能なツールを使用します。
論文 参考訳(メタデータ) (2023-09-14T07:06:36Z) - TriVol: Point Cloud Rendering via Triple Volumes [57.305748806545026]
我々は,高密度かつ軽量な3D表現であるTriVolをNeRFと組み合わせて,点雲から写実的な画像を描画する。
我々のフレームワークは、微調整なしでシーン/オブジェクトのカテゴリを描画できる優れた一般化能力を持っている。
論文 参考訳(メタデータ) (2023-03-29T06:34:12Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - Unsupervised Learning of Fine Structure Generation for 3D Point Clouds
by 2D Projection Matching [66.98712589559028]
微細な構造を持つ3次元点雲生成のための教師なしアプローチを提案する。
本手法は2次元シルエット画像から異なる解像度で微細な3次元構造を復元することができる。
論文 参考訳(メタデータ) (2021-08-08T22:15:31Z) - Privacy Preserving Visual SLAM [11.80598014760818]
本研究では、カメラのポーズを推定し、混合線と点雲によるバンドル調整をリアルタイムで行うためのプライバシー保護型Visual SLAMフレームワークを提案する。
従来の研究では、単一画像や再構成点雲のラインクラウドマップを用いて、カメラのポーズを推定するローカライズ手法が提案されている。
当社のフレームワークは,行クラウドマップを用いて,意図したプライバシ保護の形成とリアルタイムパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-20T18:00:06Z) - ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes [93.82668222075128]
RGB-Dシーンに対するImVoteNetと呼ばれる3次元検出アーキテクチャを提案する。
ImVoteNetは、画像に2D票、ポイントクラウドに3D票を投じることに基づいている。
挑戦的なSUN RGB-Dデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-01-29T05:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。