論文の概要: Conservative Plane Releasing for Spatial Privacy Protection in Mixed
Reality
- arxiv url: http://arxiv.org/abs/2004.08029v1
- Date: Fri, 17 Apr 2020 01:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 13:53:24.523877
- Title: Conservative Plane Releasing for Spatial Privacy Protection in Mixed
Reality
- Title(参考訳): 複合現実における空間的プライバシー保護のための保守的プレーンリリース
- Authors: Jaybie A. de Guzman, Kanchana Thilakarathna, Aruna Seneviratne
- Abstract要約: Augmented Reality(AR)またはMixed Reality(MR)プラットフォームは、物体や表面を検出するために空間的理解を必要とする。
これらの機能は、高解像度と周波数で3次元空間情報をキャプチャするためにAR/MRプラットフォームを必要とする。
データユーティリティを維持しながら空間的プライバシーを提供するために,空間的一般化と保守的リリースを活用することを提案する。
- 参考スコア(独自算出の注目度): 7.734419216983683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Augmented reality (AR) or mixed reality (MR) platforms require spatial
understanding to detect objects or surfaces, often including their structural
(i.e. spatial geometry) and photometric (e.g. color, and texture) attributes,
to allow applications to place virtual or synthetic objects seemingly
"anchored" on to real world objects; in some cases, even allowing interactions
between the physical and virtual objects. These functionalities require AR/MR
platforms to capture the 3D spatial information with high resolution and
frequency; however, these pose unprecedented risks to user privacy. Aside from
objects being detected, spatial information also reveals the location of the
user with high specificity, e.g. in which part of the house the user is. In
this work, we propose to leverage spatial generalizations coupled with
conservative releasing to provide spatial privacy while maintaining data
utility. We designed an adversary that builds up on existing place and shape
recognition methods over 3D data as attackers to which the proposed spatial
privacy approach can be evaluated against. Then, we simulate user movement
within spaces which reveals more of their space as they move around utilizing
3D point clouds collected from Microsoft HoloLens. Results show that revealing
no more than 11 generalized planes--accumulated from successively revealed
spaces with large enough radius, i.e. $r\leq1.0m$--can make an adversary fail
in identifying the spatial location of the user for at least half of the time.
Furthermore, if the accumulated spaces are of smaller radius, i.e. each
successively revealed space is $r\leq 0.5m$, we can release up to 29
generalized planes while enjoying both better data utility and privacy.
- Abstract(参考訳): 拡張現実(ar)または複合現実(mr)プラットフォームは、オブジェクトや表面を検出するために空間的理解を必要とし、しばしばその構造的(すなわち空間幾何学)とフォトメトリック(例えば色やテクスチャ)の属性を含む。
これらの機能は、高解像度と周波数で3D空間情報をキャプチャするためにAR/MRプラットフォームを必要とするが、これはユーザーのプライバシーに前例のないリスクをもたらす。
検出されたオブジェクトの他に、空間情報は、例えば、ユーザの家の一部がどこにあるかなど、高い特異度でユーザの位置を明らかにする。
本研究では,空間的一般化と保守的リリースを併用して空間的プライバシを提供する。
提案する空間プライバシーアプローチを評価できる攻撃者として,既存の場所と3dデータ上の形状認識手法を基盤とした敵を設計。
そして、microsoft hololensから収集した3dポイントクラウドを利用して、空間内のユーザの動きをシミュレートし、空間のより多くを明らかにする。
その結果, 半径が十分大きい空間から累積された11以上の一般化平面(すなわち$r\leq1.0m$-)は, ユーザの空間的位置を少なくとも半時間同定することに敵意を損なうことが判明した。
さらに、累積空間が半径が小さい場合、すなわち、連続的に現れる各空間は$r\leq 0.5m$である場合、29個の一般化平面を解放し、より良いデータユーティリティとプライバシーの両方を享受することができる。
関連論文リスト
- RoboSpatial: Teaching Spatial Understanding to 2D and 3D Vision-Language Models for Robotics [26.42651735582044]
室内とテーブルトップのシーンを3Dスキャンで捉えた大規模な空間理解データセットであるRoboSpatialと,ロボット工学に関連する豊富な空間情報を付加したエゴセントリック画像を紹介する。
実験の結果,RoboSpatialで訓練したモデルは,空間的空き時間予測,空間的関係予測,ロボット操作といった下流タスクのベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-11-25T16:21:34Z) - Space3D-Bench: Spatial 3D Question Answering Benchmark [49.259397521459114]
Space3D-Benchは、Replicaデータセットのシーンに関連する1000の一般的な空間的質問と回答の集合である。
本研究では,事前定義された接地真実解に基づいて,自然言語応答を評価評価するシステムを提案する。
最後に,基礎モデルの世界理解をリッチな文脈検索と統合したRAG3D-Chatというベースラインを導入する。
論文 参考訳(メタデータ) (2024-08-29T16:05:22Z) - Generating Visual Spatial Description via Holistic 3D Scene
Understanding [88.99773815159345]
視覚空間記述(VSD)は、画像内の対象物の空間的関係を記述するテキストを生成することを目的としている。
外部の3Dシーン抽出器を用いて,入力画像の3Dオブジェクトとシーン特徴を抽出する。
対象物の中心となる3次元空間シーングラフ(Go3D-S2G)を構築し,対象物の空間意味を総合的な3次元シーン内にモデル化する。
論文 参考訳(メタデータ) (2023-05-19T15:53:56Z) - AirLoc: Object-based Indoor Relocalization [8.88390498722337]
そこで本研究では,AirLocと呼ばれるシンプルなオブジェクトベース屋内再配置手法を提案する。
オブジェクト再識別とオブジェクト関係の記憶という課題を克服するために,オブジェクトの外観の埋め込みとオブジェクト間の幾何学的関係を抽出する。
その結果、ロバストで正確でポータブルな屋内再局在システムとなり、室内レベルの再局在における最先端の手法を9.5%、精度7%で上回る結果となった。
論文 参考訳(メタデータ) (2023-04-03T13:16:47Z) - SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Perceiving 3D Human-Object Spatial Arrangements from a Single Image in
the Wild [96.08358373137438]
本研究では,世界規模で一貫した3Dシーンにおいて,人間や物体の空間的配置や形状を推定する手法を提案する。
本手法は,シーンレベルやオブジェクトレベルの3D監視を必要とせず,データセット上で動作させる。
論文 参考訳(メタデータ) (2020-07-30T17:59:50Z) - Parameter-Efficient Person Re-identification in the 3D Space [51.092669618679615]
我々は3次元空間に2D画像を投影し、新しいパラメータ効率のOmniスケールグラフネットワーク(OG-Net)を導入し、3次元点雲から直接歩行者表現を学習する。
OG-Netはスパース3Dポイントが提供するローカル情報を効果的に活用し、その構造と外観情報を一貫性のある方法で活用する。
私たちは3D空間における人物の再識別を行う最初の試みの1つです。
論文 参考訳(メタデータ) (2020-06-08T13:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。