論文の概要: Applications of Deep Learning for Top-View Omnidirectional Imaging: A
Survey
- arxiv url: http://arxiv.org/abs/2304.08193v1
- Date: Mon, 17 Apr 2023 12:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 15:25:49.768962
- Title: Applications of Deep Learning for Top-View Omnidirectional Imaging: A
Survey
- Title(参考訳): トップビュー全方位イメージングへの深層学習の応用:調査
- Authors: Jingrui Yu, Ana Cecilia Perez Grassi, Gangolf Hirtz
- Abstract要約: 大きな視野の魚眼カメラは、下向きの高位置に設置されている場合、最小限のカメラで大きな領域を撮影することができる。
このトップビュー全方位設定は、従来の複数の視点カメラによるソリューションと比較して、デプロイメントの作業とコストを大幅に削減します。
深層学習は、全方位設定を含む視覚関連タスクに広く利用されている。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A large field-of-view fisheye camera allows for capturing a large area with
minimal numbers of cameras when they are mounted on a high position facing
downwards. This top-view omnidirectional setup greatly reduces the work and
cost for deployment compared to traditional solutions with multiple perspective
cameras. In recent years, deep learning has been widely employed for vision
related tasks, including for such omnidirectional settings. In this survey, we
look at the application of deep learning in combination with omnidirectional
top-view cameras, including the available datasets, human and object detection,
human pose estimation, activity recognition and other miscellaneous
applications.
- Abstract(参考訳): 大きな視野の魚眼カメラは、下向きの高い位置に取り付けられた時に、最小限のカメラで広い領域を捉えることができる。
このトップビュー全方位設定は、従来の複数の視点カメラによるソリューションと比較して、デプロイメントの作業とコストを大幅に削減します。
近年,一方向設定を含む視覚関連タスクにディープラーニングが広く採用されている。
本調査では,全方位トップビューカメラと併用した深層学習の応用について検討し,利用可能なデータセット,人間と物体の検出,人物のポーズ推定,行動認識,その他の雑多な応用について検討した。
関連論文リスト
- 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - A Simple Baseline for Supervised Surround-view Depth Estimation [25.81521612343612]
本稿では,S3Depthを提案する。
我々はCNNとトランスフォーマー層を組み合わせたグローバル・ローカルな特徴抽出モジュールを用いて表現を豊かにする。
本手法は,既存のDDADおよびnuScenesデータセット上での最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T10:06:19Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Neural Camera Models [0.0]
機械学習支援深度推定または深度推定は、画像中の各画素が撮像されたシーンポイントまでの距離を予測する。
この論文では、これらの仮定を緩和することに集中し、カメラを真に汎用的な深度センサーに変えるという究極の目標への貢献について述べる。
論文 参考訳(メタデータ) (2022-08-27T01:28:46Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - Performance of object recognition in wearable videos [9.669942356088377]
本研究は、このタイプのカメラで撮影した映像における物体検出と位置決めの問題について研究する。
本稿では、精度と速度の優れたトレードオフを提供する、よく知られたYOLOアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2020-09-10T15:20:17Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。