論文の概要: 360{\deg} Optical Flow using Tangent Images
- arxiv url: http://arxiv.org/abs/2112.14331v1
- Date: Tue, 28 Dec 2021 23:50:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 15:22:42.804340
- Title: 360{\deg} Optical Flow using Tangent Images
- Title(参考訳): タンジェント画像を用いた360{\deg}光流れ
- Authors: Mingze Yuan, Christian Richardt
- Abstract要約: 等角射影 (ERP) は、360度画像の保存、処理、視覚化において最も一般的なフォーマットである。
タンジェント画像に基づく360度光フロー法を提案する。
- 参考スコア(独自算出の注目度): 18.146747748702513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Omnidirectional 360{\deg} images have found many promising and exciting
applications in computer vision, robotics and other fields, thanks to their
increasing affordability, portability and their 360{\deg} field of view. The
most common format for storing, processing and visualising 360{\deg} images is
equirectangular projection (ERP). However, the distortion introduced by the
nonlinear mapping from 360{\deg} image to ERP image is still a barrier that
holds back ERP images from being used as easily as conventional perspective
images. This is especially relevant when estimating 360{\deg} optical flow, as
the distortions need to be mitigated appropriately. In this paper, we propose a
360{\deg} optical flow method based on tangent images. Our method leverages
gnomonic projection to locally convert ERP images to perspective images, and
uniformly samples the ERP image by projection to a cubemap and regular
icosahedron vertices, to incrementally refine the estimated 360{\deg} flow
fields even in the presence of large rotations. Our experiments demonstrate the
benefits of our proposed method both quantitatively and qualitatively.
- Abstract(参考訳): 全方位360{\deg}画像は、コンピュータビジョン、ロボティクス、その他の分野で有望でエキサイティングな応用が数多く見出されている。
360{\deg}画像を保存、処理、視覚化するための最も一般的なフォーマットは、等方射影(ERP)である。
しかし, 360{\deg} 画像から ERP 画像への非線形マッピングによって引き起こされる歪みは, 従来の視点画像と同じくらい簡単にERP 画像が使用されることを防ぐ障壁である。
これは、歪みを適切に緩和する必要があるため、360{\deg}光の流れを推定する場合に特に重要である。
本稿では,タンジェント画像に基づく360{\deg}光フロー法を提案する。
提案手法では, 局所的にERP画像を視点画像に変換し, ERP画像を立方体マップおよび正コサヘドロン頂点に投影して一様にサンプリングすることにより, 大きな回転が存在する場合でも, 推定した360{\deg}流れ場を漸進的に洗練する。
提案手法の定量的・質的効果を実証する実験を行った。
関連論文リスト
- ODGS: 3D Scene Reconstruction from Omnidirectional Images with 3D Gaussian Splattings [48.72040500647568]
幾何的解釈を用いた全方位画像の新規化パイプラインであるODGSについて述べる。
パイプライン全体が並列化され、最適化が達成され、NeRFベースの手法よりも100倍高速になる。
その結果、ODGSは大規模な3Dシーンを再構築しても、細部を効果的に復元できることがわかった。
論文 参考訳(メタデータ) (2024-10-28T02:45:13Z) - Sp2360: Sparse-view 360 Scene Reconstruction using Cascaded 2D Diffusion Priors [51.36238367193988]
潜時拡散モデル(LDM)を用いた360度3次元シーンのスパースビュー再構成に挑戦する。
SparseSplat360は,未完成の細部を埋めたり,新しいビューをクリーンにするために,インペイントとアーティファクト除去のカスケードを利用する手法である。
提案手法は,9つの入力ビューから360度映像全体を生成する。
論文 参考訳(メタデータ) (2024-05-26T11:01:39Z) - Perceptual Quality Assessment of 360$^\circ$ Images Based on Generative
Scanpath Representation [40.00063797833765]
360$circ$画像の品質を効果的に推定するための一意な生成性スキャンパス表現(GSR)を導入する。
GSRは、予め定義された視聴条件下で、多義語利用者の知覚経験を集約する。
そこで我々は,高品質マップGSRを学習し,効率的なOIQA計算フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-07T04:10:30Z) - NeO 360: Neural Fields for Sparse View Synthesis of Outdoor Scenes [59.15910989235392]
屋外シーンのスパースビュー合成のためのNeO 360, Neural Fieldを紹介する。
NeO 360は、単一のまたは少数のRGB画像から360degのシーンを再構成する一般化可能な方法である。
我々の表現は、Voxel-basedとBird's-eye-view (BEV)の両方の表現の長所を組み合わせたものである。
論文 参考訳(メタデータ) (2023-08-24T17:59:50Z) - Distortion-Aware Self-Supervised 360{\deg} Depth Estimation from A
Single Equirectangular Projection Image [35.943763515381214]
本稿では,オープン環境下での単一360度画像深度予測のための新しい手法を提案する。
ひとつは、監視データセットの制限 - 現在利用可能なデータセットは、屋内シーンに限られている。
もうひとつは、座標と歪みを持つ360deg画像に一般的に使用される等角射影フォーマット(ERP)による問題である。
論文 参考訳(メタデータ) (2022-04-03T08:28:44Z) - Field-of-View IoU for Object Detection in 360{\deg} Images [36.72543749626039]
本研究では,FoV-IoU(FoV-IoU)と360deg画像における物体検出のための360Augmentationという2つの基本手法を提案する。
FoV-IoUは2つの視野境界ボックスの交叉結合を球面画像で計算し、トレーニング、推論、評価に使用できる。
360Augmentationは、球面イメージをランダムに回転させ、球面から平面への投影によるバイアスを解決する360degオブジェクト検出タスクに特有のデータ拡張技術である。
論文 参考訳(メタデータ) (2022-02-07T14:01:59Z) - SphereSR: 360{\deg} Image Super-Resolution with Arbitrary Projection via
Continuous Spherical Image Representation [27.10716804733828]
LR 360デジメージから連続的な球面画像表現を生成するための新しいフレームワークを提案する。
具体的には、まず、イコサヘドロンに基づく球面データを表す特徴抽出モジュールを提案する。
次に、球面座標におけるRGB値を予測するために、球面局所暗黙画像関数(SLIIF)を提案する。
論文 参考訳(メタデータ) (2021-12-13T10:16:51Z) - 360MonoDepth: High-Resolution 360{\deg} Monocular Depth Estimation [15.65828728205071]
360degデータでは 単分子深度推定は 依然として課題です
現在のCNNベースのメソッドは、GPUメモリが限られているため、そのような高解像度をサポートしない。
タンジェント画像を用いた高解像度360deg画像からの単眼深度推定のためのフレキシブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-30T18:57:29Z) - Extreme Rotation Estimation using Dense Correlation Volumes [73.35119461422153]
本稿では,RGB画像対の相対的な3次元回転を極端に推定する手法を提案する。
画像が重なり合わなくても、それらの幾何学的関係に関して豊富な隠れた手がかりがあるかもしれないと観察する。
本稿では,2つの入力画像間の全ての点を比較することで,そのような暗黙の手がかりを自動的に学習できるネットワーク設計を提案する。
論文 参考訳(メタデータ) (2021-04-28T02:00:04Z) - Robust 360-8PA: Redesigning The Normalized 8-point Algorithm for 360-FoV
Images [53.11097060367591]
球面投影における360-fov画像から本質行列を推定する新しい手法を提案する。
我々の正規化は、時間を大幅に上回ることなく、カメラの精度を約20%向上させることができることを示す。
論文 参考訳(メタデータ) (2021-04-22T07:23:11Z) - Visual Question Answering on 360{\deg} Images [96.00046925811515]
VQA 360は、360度画像上で視覚的な質問に答える新しいタスクである。
最初のVQA 360データセットを収集し、様々な質問タイプに対して、約17,000の現実世界の画像検索用トリプルを含む。
論文 参考訳(メタデータ) (2020-01-10T08:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。