論文の概要: Enabling Robust, Real-Time Verification of Vision-Based Navigation through View Synthesis
- arxiv url: http://arxiv.org/abs/2507.02993v1
- Date: Tue, 01 Jul 2025 19:47:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.508303
- Title: Enabling Robust, Real-Time Verification of Vision-Based Navigation through View Synthesis
- Title(参考訳): ビュー合成による視覚ナビゲーションのロバストな実時間検証
- Authors: Marius Neuhalfen, Jonathan Grzymisch, Manuel Sanchez-Gestido,
- Abstract要約: VISY-REVEはビジョンベースナビゲーションのための画像処理アルゴリズムを検証する新しいパイプラインである。
本稿では,新しいポーズで合成されたビューを用いて,画像データセットをリアルタイムで拡張する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces VISY-REVE: a novel pipeline to validate image processing algorithms for Vision-Based Navigation. Traditional validation methods such as synthetic rendering or robotic testbed acquisition suffer from difficult setup and slow runtime. Instead, we propose augmenting image datasets in real-time with synthesized views at novel poses. This approach creates continuous trajectories from sparse, pre-existing datasets in open or closed-loop. In addition, we introduce a new distance metric between camera poses, the Boresight Deviation Distance, which is better suited for view synthesis than existing metrics. Using it, a method for increasing the density of image datasets is developed.
- Abstract(参考訳): この研究は、視覚ベースのナビゲーションのための画像処理アルゴリズムを検証する新しいパイプラインであるVISY-REVEを紹介する。
合成レンダリングやロボットテストベッドの取得といった従来の検証方法は、セットアップが難しく、実行が遅い。
代わりに、新しいポーズで合成されたビューを用いて、画像データセットをリアルタイムで拡張する手法を提案する。
このアプローチは、オープンループまたはクローズループで、スパースで既存のデータセットから連続的なトラジェクトリを生成する。
さらに,カメラポーズ間の距離距離の新たな指標であるボレスト偏差距離(Boresight Deviation Distance)を導入する。
これを用いて,画像データセットの密度を増大させる手法を開発した。
関連論文リスト
- PoseLess: Depth-Free Vision-to-Joint Control via Direct Image Mapping with VLM [0.0]
PoseLessはロボットハンドコントロールのための新しいフレームワークで、投影された表現を用いて2D画像を関節角に直接マッピングすることで、明示的なポーズ推定を不要にする。
提案手法では,ランダムな関節構成によって生成された合成トレーニングデータを活用し,実世界のシナリオへのゼロショット一般化とロボットから人間の手へのクロスモルフォロジー移行を実現する。
論文 参考訳(メタデータ) (2025-03-10T09:34:05Z) - Para-Lane: Multi-Lane Dataset Registering Parallel Scans for Benchmarking Novel View Synthesis [5.281171924360707]
実世界のスキャンから得られた新しい駆動ビューデータセットに対して,並列スキャンを登録する最初のマルチレーンデータセットを提案する。
データセットは、16,000のフロントビューイメージ、64,000のサラウンドビューイメージ、16,000のLiDARフレームを含む、25の関連するシーケンスからなる。
異なる車線, 距離の異なる様々なテストシナリオにおいて, 既存手法の性能を評価する。
論文 参考訳(メタデータ) (2025-02-21T18:03:56Z) - XR-VIO: High-precision Visual Inertial Odometry with Fast Initialization for XR Applications [34.2082611110639]
本稿では,視覚慣性オドメトリー(VIO)に対する新しいアプローチとして,初期化と特徴マッチングモジュールについて述べる。
ジャイロスコープの既存の方法は、運動からの視覚構造(SfM)の安定性の低下や、膨大な数のパラメータの同時解決に悩まされることが多い。
測定値の密結合により,視覚的SfMの堅牢性と精度が向上する。
特徴マッチングに関しては,光学フローとディスクリプタベースマッチングを組み合わせたハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2025-02-03T12:17:51Z) - Drive-1-to-3: Enriching Diffusion Priors for Novel View Synthesis of Real Vehicles [81.29018359825872]
本稿では,実世界の課題に対して,大規模な事前学習モデルを微調整するための一連の優れたプラクティスを統合する。
具体的には,合成データと実運転データとの相違を考慮に入れたいくつかの戦略を開発する。
我々の洞察は、先行芸術よりも新しいビュー合成のためのFIDを68.8%値下げする効果のある微調整につながる。
論文 参考訳(メタデータ) (2024-12-19T03:39:13Z) - Test-Time Adaptation for Keypoint-Based Spacecraft Pose Estimation Based on Predicted-View Synthesis [9.273012275620527]
宇宙船のポーズ推定のための教師付きアルゴリズムは、合成データに基づいて訓練された場合、性能が低下する。
近接動作中に取得した画像間の時間的冗長性を利用したテスト時間適応手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T22:24:19Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,新しい駆動ビュー合成評価のための合成データセットを提案する。
トレーニングコースから逸脱した画像を1~4ドル(約1,400円)で撮影する。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Augmenting Deep Learning Adaptation for Wearable Sensor Data through
Combined Temporal-Frequency Image Encoding [4.458210211781739]
本稿では、時間領域情報と周波数領域情報をシームレスに統合した、新しい修正繰り返しプロットベースの画像表現を提案する。
加速度センサを用いた活動認識データと事前訓練されたResNetモデルを用いて提案手法の評価を行い,既存の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-03T09:29:27Z) - Fast Non-Rigid Radiance Fields from Monocularized Data [66.74229489512683]
本稿では,不規則に変形するシーンを360度内向きに合成する新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離し, 訓練と推論を高速化する効率的な変形モジュール, 2) 高速ハッシュ符号化ニューラルラジオアンスフィールドとしての標準シーンを表す静的モジュールである。
どちらの場合も,本手法は従来の手法よりもはるかに高速で,7分未満で収束し,1K解像度でリアルタイムのフレームレートを実現するとともに,生成した新規なビューに対して高い視覚的精度が得られる。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。