論文の概要: Multifocal Stereoscopic Projection Mapping
- arxiv url: http://arxiv.org/abs/2110.07726v1
- Date: Fri, 8 Oct 2021 06:13:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 04:29:29.686669
- Title: Multifocal Stereoscopic Projection Mapping
- Title(参考訳): 多焦点ステレオプロジェクションマッピング
- Authors: Sorashi Kimura, Daisuke Iwai, Parinya Punpongsanon, Kosuke Sato
- Abstract要約: 現在の立体PM技術は両眼のキューのみを満足し、適切なフォーカスキューを提供することができない。
本稿では,立体的PMにおける頂点調節競合(VAC)を緩和するための多焦点アプローチを提案する。
3次元CGオブジェクトは、投影された画像の仮想画像が所望距離にある場合にのみ、同期された高速プロジェクタから投影される。
- 参考スコア(独自算出の注目度): 24.101349988126692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stereoscopic projection mapping (PM) allows a user to see a three-dimensional
(3D) computer-generated (CG) object floating over physical surfaces of
arbitrary shapes around us using projected imagery. However, the current
stereoscopic PM technology only satisfies binocular cues and is not capable of
providing correct focus cues, which causes a vergence--accommodation conflict
(VAC). Therefore, we propose a multifocal approach to mitigate VAC in
stereoscopic PM. Our primary technical contribution is to attach electrically
focus-tunable lenses (ETLs) to active shutter glasses to control both vergence
and accommodation. Specifically, we apply fast and periodical focal sweeps to
the ETLs, which causes the "virtual image'" (as an optical term) of a scene
observed through the ETLs to move back and forth during each sweep period. A 3D
CG object is projected from a synchronized high-speed projector only when the
virtual image of the projected imagery is located at a desired distance. This
provides an observer with the correct focus cues required. In this study, we
solve three technical issues that are unique to stereoscopic PM: (1) The 3D CG
object is displayed on non-planar and even moving surfaces; (2) the physical
surfaces need to be shown without the focus modulation; (3) the shutter glasses
additionally need to be synchronized with the ETLs and the projector. We also
develop a novel compensation technique to deal with the "lens breathing"
artifact that varies the retinal size of the virtual image through focal length
modulation. Further, using a proof-of-concept prototype, we demonstrate that
our technique can present the virtual image of a target 3D CG object at the
correct depth. Finally, we validate the advantage provided by our technique by
comparing it with conventional stereoscopic PM using a user study on a
depth-matching task.
- Abstract(参考訳): 立体プロジェクションマッピング(PM)により、ユーザは投影画像を用いて、周囲の任意の形状の物理的表面に浮かぶ3次元コンピュータ生成(CG)オブジェクトを見ることができる。
しかし、現在の立体PM技術は両眼のキューのみを満足し、適切なフォーカスキューを提供することができないため、頂点調節コンフリクト(VAC)を引き起こす。
そこで我々は,立体視pmにおいてvacを緩和する多焦点法を提案する。
我々の主な技術的貢献は、電気的焦点調整可能なレンズ(ETL)をアクティブシャッターグラスに取り付け、潜伏と宿泊の両方を制御することである。
具体的には,etlで観察されたシーンの「仮想イメージ」(光学用語として)をスイープ周期ごとに前後に移動させる,高速かつ周期的な焦点スイープをetlに適用する。
3次元CGオブジェクトは、投影された画像の仮想画像が所望距離にある場合にのみ、同期された高速プロジェクタから投影される。
これにより、オブザーバに適切なフォーカスキューが要求される。
本研究では,立体的PMに特有の3つの技術的課題を解決し,(1)非平面および移動面に3次元CGオブジェクトを表示させる,(2)焦点変調なしで物理的表面を表示させる,(3)シャッターガラスをETLとプロジェクタと同期させる,といった課題を解決した。
また,焦点長変調により仮想画像の網膜サイズが変化する「レンズ呼吸」アーティファクトに対処する新たな補償手法を開発した。
さらに,概念実証プロトタイプを用いて,対象の3次元CGオブジェクトの仮想像を正確な深さで提示できることを実証した。
最後に,本手法の利点を従来の立体視pmと比較し,奥行きマッチングタスクのユーザスタディを用いて検証した。
関連論文リスト
- VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - DepthSSC: Depth-Spatial Alignment and Dynamic Voxel Resolution for
Monocular 3D Semantic Scene Completion [0.4662017507844857]
DepthSSCはモノクロカメラのみをベースとしたセマンティックシーン補完手法である。
従来の手法で観察された空間的不整合や歪みの問題を緩和する。
複雑な3D構造の詳細をキャプチャーし、最先端のパフォーマンスを実現する効果を実証する。
論文 参考訳(メタデータ) (2023-11-28T01:47:51Z) - Visually Guided Object Grasping [19.71383212064634]
直交ステレオリグを用いた3次元射影空間における2つの固体間のアライメントの把握方法を示す。
本稿では,視覚サーボアルゴリズムの性能解析と,このようなアプローチで期待できる把握精度の解析を行う。
論文 参考訳(メタデータ) (2023-11-21T15:08:17Z) - NeurOCS: Neural NOCS Supervision for Monocular 3D Object Localization [80.3424839706698]
入力として3Dボックスをインスタンスマスクとして使用するNeurOCSを提案する。
われわれのアプローチは、実際の運転シーンから直接カテゴリレベルの形状を学習する際の洞察に依存している。
我々は、オブジェクト中心の視点からオブジェクト座標をより効果的に学習するための重要な設計選択を行う。
論文 参考訳(メタデータ) (2023-05-28T16:18:41Z) - Decoupling Dynamic Monocular Videos for Dynamic View Synthesis [50.93409250217699]
動的モノクロビデオからの動的ビュー合成の課題を教師なしで解決する。
具体的には、動的物体の運動を物体の動きとカメラの動きに分離し、教師なし表面の整合性およびパッチベースのマルチビュー制約によって規則化する。
論文 参考訳(メタデータ) (2023-04-04T11:25:44Z) - Single-shot ToF sensing with sub-mm precision using conventional CMOS
sensors [7.114925332582435]
動的物体の高精度な3次元計測を目的とした,新しい単発干渉計ToFカメラを提案する。
従来のToFカメラとは対照的に、当社のデバイスは市販のCCD/CMOS検出器のみを使用し、ネイティブチップの解像度で動作する。
我々は,2Mp点の雲の分解能を持つ小型(cmサイズの)物体の3次元計測を行い,その深さを2mm以下の精度で測定した。
論文 参考訳(メタデータ) (2022-12-02T01:50:36Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - MonoGRNet: A General Framework for Monocular 3D Object Detection [23.59839921644492]
幾何学的推論によるモノクロ画像からのアモーダル3次元物体検出のためのMonoGRNetを提案する。
MonoGRNetは、モノラル3Dオブジェクト検出タスクを2Dオブジェクト検出、インスタンスレベルの深さ推定、投影された3Dセンター推定、ローカルコーナー回帰を含む4つのサブタスクに分解する。
KITTI、Cityscapes、MS COCOデータセットで実験が行われた。
論文 参考訳(メタデータ) (2021-04-18T10:07:52Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - One Shot 3D Photography [40.83662583097118]
本稿では,3D画像の作成と閲覧を行うエンド・ツー・エンドシステムを提案する。
私たちの3D写真は1枚の写真で撮影され、モバイルデバイスで直接処理されます。
論文 参考訳(メタデータ) (2020-08-27T17:59:31Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。