論文の概要: Feature points evaluation on omnidirectional vision with a photorealistic fisheye sequence -- A report on experiments done in 2014
- arxiv url: http://arxiv.org/abs/2602.05487v1
- Date: Thu, 05 Feb 2026 09:49:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.869116
- Title: Feature points evaluation on omnidirectional vision with a photorealistic fisheye sequence -- A report on experiments done in 2014
- Title(参考訳): フォトリアリスティック魚眼シークエンスを用いた全方位視覚の特徴点評価 -2014年の実験報告-
- Authors: Julien Moreau, S. Ambellouis, Yassine Ruichek,
- Abstract要約: この仕事はドラフトと見なされるべきで、私の博士論文の中で行われました。
目的は、魚眼画像に最適な特徴検出器と記述子を見つけることであった。
議論は翻訳され、強化されたが、実験は再び行われず、報告は更新されていない。
- 参考スコア(独自算出の注目度): 9.640503582327096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What is this report: This is a scientific report, contributing with a detailed bibliography, a dataset which we will call now PFSeq for ''Photorealistic Fisheye Sequence'' and make available at https://doi.org/10. 57745/DYIVVU, and comprehensive experiments. This work should be considered as a draft, and has been done during my PhD thesis ''Construction of 3D models from fisheye video data-Application to the localisation in urban area'' in 2014 [Mor16]. These results have never been published. The aim was to find the best features detector and descriptor for fisheye images, in the context of selfcalibration, with cameras mounted on the top of a car and aiming at the zenith (to proceed then fisheye visual odometry and stereovision in urban scenes). We face a chicken and egg problem, because we can not take advantage of an accurate projection model for an optimal features detection and description, and we rightly need good features to perform the calibration (i.e. to compute the accurate projection model of the camera). What is not this report: It does not contribute with new features algorithm. It does not compare standard features algorithms to algorithms designed for omnidirectional images (unfortunately). It has not been peer-reviewed. Discussions have been translated and enhanced but the experiments have not been run again and the report has not been updated accordingly to the evolution of the state-of-the-art (read this as a 2014 report).
- Abstract(参考訳): このレポートは科学的なレポートであり、詳細な文献学、'フォトリアリスティックフィッシュアイシーケンス'でPFSeqと呼ばれるデータセットを提供し、https://doi.org/10.comで入手できる。
57745/DYIVVU、総合実験。
本研究は,2014年(平成14年)の博士論文「魚眼映像データによる3Dモデルの構築-都市部におけるローカライゼーションへの展開」において,草案として検討されている。
これらの結果は公表されていない。
目的は、自己校正の文脈で魚眼画像の最良の特徴検出器とディスクリプタを見つけることであり、車の上にカメラを取り付け、ゼニスを目指していた。
我々は、最適な特徴の検出と記述のために正確なプロジェクションモデルを利用することができないため、鶏卵の問題に直面し、キャリブレーション(カメラの正確なプロジェクションモデルを計算すること)を行うのに適切な機能が必要である。
新機能のアルゴリズムには貢献していません。
標準的な特徴アルゴリズムと全方位画像用に設計されたアルゴリズム(残念なことに)を比較しない。
査読はされていない。
議論は翻訳され、強化されているが、実験は再び行われておらず、最新技術の発展に応じて報告は更新されていない(2014年のレポートとして参照)。
関連論文リスト
- The Drunkard's Odometry: Estimating Camera Motion in Deforming Scenes [79.00228778543553]
このデータセットは、3Dシーンの中で地上の真実を語る最初の大規模なカメラ軌道である。
リアルな3Dビルディングのシミュレーションでは、膨大な量のデータと地上の真実のラベルが得られます。
本稿では,光学的フロー推定を剛体カメラ運動に分解するDrunkard's Odometryと呼ばれる,変形可能な新しいオドメトリー法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:09:31Z) - Tame a Wild Camera: In-the-Wild Monocular Camera Calibration [12.55056916519563]
以前のモノクロカメラのキャリブレーション法は、特定の3Dオブジェクトやそれ以前の強力な幾何学に依存していた。
提案手法は仮定フリーであり,Def(Degree-of-Freedom)固有のパラメータを4ドル(約4,400円)で校正する。
画像操作検出と復元,2次元ポーズ推定,3次元センシングにおける下流の応用を実証する。
論文 参考訳(メタデータ) (2023-06-19T14:55:26Z) - MIPI 2022 Challenge on RGB+ToF Depth Completion: Dataset and Report [92.61915017739895]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含むMIPIの最初の課題を紹介する。
参加者にはTetrasRGBDという,高品質な合成RGB+Depthトレーニングデータ18万組と,混合ソースからの2.3万組のテストデータを含む,新たなデータセットが提供される。
最終結果は客観的指標と平均オピニオンスコア(MOS)を主観的に評価する。
論文 参考訳(メタデータ) (2022-09-15T05:31:53Z) - FisheyeEX: Polar Outpainting for Extending the FoV of Fisheye Lens [84.12722334460022]
魚眼レンズは、広視野(FoV)のため、計算写真や運転支援における応用が増大する
本稿では,魚眼レンズのFoVを拡張した魚眼EX法を提案する。
以上の結果から,本手法は従来の魚眼画像よりも27%多く,最先端の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-06-12T21:38:50Z) - Fast and Accurate Camera Scene Detection on Smartphones [51.424407411660376]
本稿では,11K以上の手動クロール画像を含むカメラシーン検出データセット(CamSDD)を提案する。
本研究では,このデータセット上で上位3の99.5%の精度を示す,効率的かつNPU対応のCNNモデルを提案する。
論文 参考訳(メタデータ) (2021-05-17T14:06:21Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - FisheyeSuperPoint: Keypoint Detection and Description Network for
Fisheye Images [2.187613144178315]
キーポイントの検出と記述はコンピュータビジョンシステムで一般的に使用されるビルディングブロックである。
SuperPointは、ホモグラフィー推定における最先端の結果を達成した自己監視型キーポイント検出器およびディスクリプタです。
本稿では,魚眼画像の学習を可能にする魚眼適応パイプラインを提案する。
論文 参考訳(メタデータ) (2021-02-27T11:26:34Z) - Generalized Object Detection on Fisheye Cameras for Autonomous Driving:
Dataset, Representations and Baseline [5.1450366450434295]
魚眼画像における物体検出のための配向境界ボックス,楕円,ジェネリックポリゴンなどのより良い表現について検討する。
魚眼歪みモデルに最適な特性を持つ曲面境界箱モデルを設計する。
これは、自律走行シナリオのための魚眼カメラにおける物体検出に関する最初の詳細な研究である。
論文 参考訳(メタデータ) (2020-12-03T18:00:16Z) - Lift, Splat, Shoot: Encoding Images From Arbitrary Camera Rigs by
Implicitly Unprojecting to 3D [100.93808824091258]
本稿では,任意の数のカメラから映像データを与えられたシーンの鳥眼ビュー表現を直接抽出するエンド・ツー・エンドアーキテクチャを提案する。
我々のアプローチは、それぞれの画像をそれぞれのカメラのフラストラムに個別に“リフト”し、すべてのフラストラムを鳥の目視格子に“プレート”することです。
提案モデルにより推定される表現は,テンプレートトラジェクトリを鳥眼ビューのコストマップに"撮影"することで,終末動作計画の解釈を可能にすることを示す。
論文 参考訳(メタデータ) (2020-08-13T06:29:01Z) - Shape and Viewpoint without Keypoints [63.26977130704171]
本研究では,1枚の画像から3次元形状,ポーズ,テクスチャを復元する学習フレームワークを提案する。
我々は,3次元形状,マルチビュー,カメラ視点,キーポイントの監督なしに画像収集を訓練した。
我々は、最先端のカメラ予測結果を取得し、オブジェクト間の多様な形状やテクスチャを予測することを学べることを示す。
論文 参考訳(メタデータ) (2020-07-21T17:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。