論文の概要: A Real-Time Diminished Reality Approach to Privacy in MR Collaboration
- arxiv url: http://arxiv.org/abs/2509.10466v1
- Date: Thu, 21 Aug 2025 04:01:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-21 06:05:45.734056
- Title: A Real-Time Diminished Reality Approach to Privacy in MR Collaboration
- Title(参考訳): MRコラボレーションにおけるリアルタイム減量現実のプライバシへのアプローチ
- Authors: Christian Fane,
- Abstract要約: この論文は、複合現実会議におけるプライバシー制御を可能にするために設計された、リアルタイムな塗り絵ベースのDRシステムを示す。
このシステムにより、プライマリ・ヘッドセットのユーザーは、環境から個人的または機密性の高いアイテムを選択的に取り除くことができる。
720pの解像度で、パイプラインはフレームレートを20fps以上維持し、実用的なプライバシー保護MRアプリケーションに対するリアルタイムの低減現実の実現可能性を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diminished reality (DR) refers to the digital removal of real-world objects by compositing background content in their place. This thesis presents a real-time, inpainting-based DR system designed to enable privacy control in shared-space mixed reality (MR) meetings. The system allows a primary headset user to selectively remove personal or sensitive items from their environment, ensuring that those objects are no longer visible to other participants. Removal is achieved through semantic segmentation and precise object selection, followed by real-time inpainting from the viewpoint of a secondary observer, implemented using a mobile ZED 2i depth camera. The solution is designed to be portable and robust, requiring neither a fixed secondary viewpoint nor prior 3D scanning of the environment. The system utilises YOLOv11 for object detection and a modified Decoupled Spatial-Temporal Transformer (DSTT) model for high-quality video inpainting. At 720p resolution, the pipeline sustains frame rates exceeding 20 fps, demonstrating the feasibility of real-time diminished reality for practical privacy-preserving MR applications.
- Abstract(参考訳): デジタルリアリティ(Dminished Reality, DR)とは、現実の物体をデジタル的に取り除き、その場所にある背景コンテンツを構成することを指す。
この論文は、共有空間混合現実(MR)会議におけるプライバシー制御を可能にするために設計された、リアルタイムな塗り絵ベースのDRシステムを示す。
このシステムは、プライマリ・ヘッドセットのユーザーが自分の環境から個人的または機密性の高いアイテムを選択的に取り除き、それらのオブジェクトが他の参加者に見えなくなることを保証する。
除去はセマンティックセグメンテーションと精密なオブジェクト選択によって達成され、続いてモバイルZED 2iディープカメラを用いて実装された二次観測者の視点でリアルタイムに塗装される。
このソリューションはポータブルで堅牢で、固定された二次的な視点や環境の以前の3Dスキャンを必要としないように設計されている。
このシステムは、オブジェクト検出にYOLOv11を使用し、高品質なビデオインペイントのためのデカップリング空間変換器(DSTT)モデルを改良した。
720pの解像度で、パイプラインはフレームレートを20fps以上維持し、実用的なプライバシー保護MRアプリケーションに対するリアルタイムの低減現実の実現可能性を示している。
関連論文リスト
- MObI: Multimodal Object Inpainting Using Diffusion Models [52.07640413626605]
マルチモーダル・オブジェクト・インペイントのための新しいフレームワークであるMObIを紹介する。
単一の参照RGBイメージを使用して、MObIは既存のマルチモーダルシーンにオブジェクトをシームレスに挿入できる。
マスクの編集だけに頼っている従来の塗り絵とは違って、3Dバウンディングボックスコンディショニングは、オブジェクトの正確な空間的位置決めとリアルなスケーリングを可能にします。
論文 参考訳(メタデータ) (2025-01-06T17:43:26Z) - MOHO: Learning Single-view Hand-held Object Reconstruction with
Multi-view Occlusion-Aware Supervision [75.38953287579616]
ハンドヘルドオブジェクト再構成のためのハンドオブジェクトビデオから,多視点オクルージョン対応監視を利用する新しいフレームワークを提案する。
このような設定において、手による排他と対象の自己排他という2つの主要な課題に対処する。
HO3D と DexYCB のデータセットを用いた実験では、2D のMOHO が 3D の教師付き手法に対して大きなマージンで優れた結果を得ることが示された。
論文 参考訳(メタデータ) (2023-10-18T03:57:06Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z) - BEVStereo++: Accurate Depth Estimation in Multi-view 3D Object Detection
via Dynamic Temporal Stereo [6.5401888641091634]
時間的多視点ステレオ(MVS)技術は、この曖昧さに対処するための自然な知識である。
動的時間的ステレオ戦略を導入することで、BEVStereo++は、時間的ステレオを導入することによってもたらされる害を削減できる。
BEVStereo++は、データセットとnuSceneの両方で最先端(SOTA)を実現する。
論文 参考訳(メタデータ) (2023-04-09T08:04:26Z) - A Flexible-Frame-Rate Vision-Aided Inertial Object Tracking System for
Mobile Devices [3.4836209951879957]
本稿では,モバイルデバイス用フレキシブルフレームレートオブジェクトポーズ推定とトラッキングシステムを提案する。
高速トラッキングのためにクライアント側で慣性計測ユニット(IMU)ポーズ伝搬を行い、サーバ側でRGB画像ベースの3Dポーズ推定を行う。
我々のシステムは120FPSまでのフレキシブルフレームレートをサポートし、ローエンドデバイス上での高精度かつリアルタイムなトラッキングを保証する。
論文 参考訳(メタデータ) (2022-10-22T15:26:50Z) - Realtime 3D Object Detection for Headsets [19.096803385184174]
移動性に配慮し,軽量かつハイブリッドな3Dオブジェクト検出フレームワークであるDeepMixを提案する。
DeepMixは、エッジ支援の2Dオブジェクト検出と、デバイス上の新しい3Dバウンディングボックス推定をインテリジェントに組み合わせている。
これにより、エンドツーエンドのレイテンシが低くなり、モバイルシナリオにおける検出精度が大幅に向上する。
論文 参考訳(メタデータ) (2022-01-15T05:50:18Z) - Occlusion-Aware Video Object Inpainting [72.38919601150175]
本稿では,映像における隠蔽物体の完全な形状と外観を復元する,隠蔽型映像オブジェクトの塗装について述べる。
我々の技術貢献であるVOINは、ビデオオブジェクト形状の完成と隠蔽テクスチャ生成を共同で行う。
より現実的な結果を得るために、VOINはT-PatchGANと新しい時間的YouTubeアテンションベースのマルチクラス識別器の両方を使用して最適化されている。
論文 参考訳(メタデータ) (2021-08-15T15:46:57Z) - MoreFusion: Multi-object Reasoning for 6D Pose Estimation from
Volumetric Fusion [19.034317851914725]
本稿では,複数の既知の物体の接触と隠蔽の正確なポーズを,リアルタイムな多視点視から推定するシステムを提案する。
提案手法は,1枚のRGB-Dビューからの3Dオブジェクトのポーズ提案を行い,カメラが移動すると,複数のビューからのポーズ推定と非パラメトリック占有情報を蓄積する。
提案手法の精度とロバスト性を2つのオブジェクトデータセット(YCB-Video)で実験的に検証する。
論文 参考訳(メタデータ) (2020-04-09T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。