論文の概要: Intensity and Texture Correction of Omnidirectional Image Using Camera Images for Indirect Augmented Reality
- arxiv url: http://arxiv.org/abs/2405.16008v1
- Date: Sat, 25 May 2024 02:14:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 01:29:38.846602
- Title: Intensity and Texture Correction of Omnidirectional Image Using Camera Images for Indirect Augmented Reality
- Title(参考訳): カメラ画像を用いた間接拡張現実のための全方位画像の強度とテクスチャ補正
- Authors: Hakim Ikebayashi, Norihiko Kawai,
- Abstract要約: モバイル端末でカメラ画像を用いた拡張現実(AR)が観光振興に人気を博している。
カメラ画像に現れる観光客のような障害は、カメラのポーズ推定ミスを引き起こす可能性がある。
モバイル端末からのカメラ画像を用いて,過去の全方位画像の強度とテクスチャを補正する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Augmented reality (AR) using camera images in mobile devices is becoming popular for tourism promotion. However, obstructions such as tourists appearing in the camera images may cause the camera pose estimation error, resulting in CG misalignment and reduced visibility of the contents. To avoid this problem, Indirect AR (IAR), which does not use real-time camera images, has been proposed. In this method, an omnidirectional image is captured and virtual objects are synthesized on the image in advance. Users can experience AR by viewing a scene extracted from the synthesized omnidirectional image according to the device's sensor. This enables robustness and high visibility. However, if the weather conditions and season in the pre-captured 360 images differs from the current weather conditions and season when AR is experienced, the realism of the AR experience is reduced. To overcome the problem, we propose a method for correcting the intensity and texture of a past omnidirectional image using camera images from mobile devices. We first perform semantic segmentation. We then reproduce the current sky pattern by panoramic image composition and inpainting. For the other areas, we correct the intensity by histogram matching. In experiments, we show the effectiveness of the proposed method using various scenes.
- Abstract(参考訳): モバイル端末でカメラ画像を用いた拡張現実(AR)が観光振興に人気を博している。
しかし、カメラ画像に現れる観光客などの障害は、カメラのポーズ推定誤差を引き起こし、CGのミスアライメントと内容の視認性が低下する可能性がある。
この問題を回避するため、リアルタイムカメラ画像を使用しない間接AR(IAR)が提案されている。
この方法では、全方位画像をキャプチャし、予め仮想オブジェクトを画像上に合成する。
ユーザは、デバイスセンサーに従って合成された全方位画像から抽出されたシーンを視聴することで、ARを体験することができる。
これによって堅牢性と高い可視性が可能になる。
しかし、撮影前の360度画像の天気条件と季節が、AR経験時の現在の天気条件と季節と異なる場合、AR経験の現実性は低下する。
そこで本研究では,モバイル端末からのカメラ画像を用いて,過去の全方位画像の強度とテクスチャを補正する手法を提案する。
まずセマンティックセグメンテーションを行います。
次に、パノラマ画像合成と塗装により現在の空模様を再現する。
その他の領域では、ヒストグラムマッチングにより強度を補正する。
実験では,様々なシーンを用いて提案手法の有効性を示す。
関連論文リスト
- OmniColor: A Global Camera Pose Optimization Approach of LiDAR-360Camera Fusion for Colorizing Point Clouds [15.11376768491973]
単純で効率的な3D表現としてのカラーポイントクラウドは、様々な分野において多くの利点がある。
本稿では,独立系360度カメラを用いて点雲をカラー化するための,新規で効率的なアルゴリズムであるOmniColorを提案する。
論文 参考訳(メタデータ) (2024-04-06T17:41:36Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Real-Time Under-Display Cameras Image Restoration and HDR on Mobile
Devices [81.61356052916855]
アンダーディスプレイカメラ(UDC)によって撮影された画像は、その前のスクリーンによって劣化する。
画像復元のためのディープラーニング手法は、キャプチャ画像の劣化を著しく低減することができる。
我々は,視覚的UDC画像復元とHDRのための軽量なモデルを提案し,スマートフォン上での様々な手法の性能と実行状況を比較したベンチマークを提供する。
論文 参考訳(メタデータ) (2022-11-25T11:46:57Z) - Perceptual Image Enhancement for Smartphone Real-Time Applications [60.45737626529091]
本稿では,知覚的画像強調のための軽量ネットワークLPIENetを提案する。
我々のモデルは、ノイズアーティファクト、回折アーティファクト、ぼかし、HDR過剰露光を扱うことができる。
我々のモデルは、中級商用スマートフォンで1秒未満で2K解像度画像を処理することができる。
論文 参考訳(メタデータ) (2022-10-24T19:16:33Z) - SAMURAI: Shape And Material from Unconstrained Real-world Arbitrary
Image collections [49.3480550339732]
完全に未知のキャプチャ条件下でのオブジェクトの逆レンダリングは、コンピュータビジョンとグラフィックスにおける根本的な課題である。
形状, BRDF, 画像当たりのカメラのポーズと照明を推定するための共同最適化フレームワークを提案する。
本手法は,オブジェクトのオンライン画像収集に利用し,AR/VRなどのいくつかのユースケースに対して,再生可能な3Dアセットを生成する。
論文 参考訳(メタデータ) (2022-05-31T13:16:48Z) - Zero-Reference Image Restoration for Under-Display Camera of UAV [10.498049147922258]
画像のテクスチャと色を向上することで視覚体験を向上させる新しい手法を提案する。
本手法は,入力画像上の低ランクアフィングリッドを推定するために,軽量ネットワークを訓練する。
我々のモデルは任意の解像度の画像の高品質な復元をリアルタイムで行うことができる。
論文 参考訳(メタデータ) (2022-02-13T11:12:00Z) - Robust Glare Detection: Review, Analysis, and Dataset Release [6.281101654856357]
太陽のグレアは、無人の地上と屋外環境で活動する航空車両によって撮影された画像の中に広く存在する。
輝きの源は太陽に限らず、夜間や屋内で撮影された画像で見ることもできる。
この研究は、異なるカメラで撮影された画像を含む、グラア検出のための最初のデータセットを導入することを目的としている。
論文 参考訳(メタデータ) (2021-10-12T13:46:33Z) - Minimal Solutions for Panoramic Stitching Given Gravity Prior [53.047330182598124]
我々は,光学中心が一致するカメラで撮影した画像のパノラマ画像縫合に対する最小限の解を提案する。
固定長や焦点距離の変動を視線歪みの有無で仮定し, 4つの実用的なカメラ構成について検討した。
シンセサイザーは、合成シーンと、Sun360データセットから500万枚以上の実画像のペアと、IMUを搭載した2台のスマートフォンを使って、私たちによって撮影されたシーンの両方でテストされる。
論文 参考訳(メタデータ) (2020-12-01T13:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。