論文の概要: NeRF-To-Real Tester: Neural Radiance Fields as Test Image Generators for Vision of Autonomous Systems
- arxiv url: http://arxiv.org/abs/2412.16141v1
- Date: Fri, 20 Dec 2024 18:40:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:23:43.062431
- Title: NeRF-To-Real Tester: Neural Radiance Fields as Test Image Generators for Vision of Autonomous Systems
- Title(参考訳): NeRF-to-Real Tester:自律システムのビジョンのためのテスト画像生成装置としてのニューラルラジアンス場
- Authors: Laura Weihl, Bilal Wehbe, Andrzej Wąsowski,
- Abstract要約: シミュレーション条件に対するコントローラの過度な適合は、運用環境における性能の低下につながる。
本稿では,ニューラルネットワークを利用した自律システムにおける知覚テストデータ生成の課題に対処する。
当社のツールであるN2R-Testerは、カスタムシーンのトレーニングモデルと、摂動位置からのテストイメージのレンダリングを可能にする。
- 参考スコア(独自算出の注目度): 3.031375888004876
- License:
- Abstract: Autonomous inspection of infrastructure on land and in water is a quickly growing market, with applications including surveying constructions, monitoring plants, and tracking environmental changes in on- and off-shore wind energy farms. For Autonomous Underwater Vehicles and Unmanned Aerial Vehicles overfitting of controllers to simulation conditions fundamentally leads to poor performance in the operation environment. There is a pressing need for more diverse and realistic test data that accurately represents the challenges faced by these systems. We address the challenge of generating perception test data for autonomous systems by leveraging Neural Radiance Fields to generate realistic and diverse test images, and integrating them into a metamorphic testing framework for vision components such as vSLAM and object detection. Our tool, N2R-Tester, allows training models of custom scenes and rendering test images from perturbed positions. An experimental evaluation of N2R-Tester on eight different vision components in AUVs and UAVs demonstrates the efficacy and versatility of the approach.
- Abstract(参考訳): 陸上および水中のインフラの自律的な検査は急速に増加しており、調査工事、プラントの監視、沿岸および沖合の風力発電所における環境変化の追跡などの応用が急速に進んでいる。
自律型水中車両と無人航空機では、制御器がシミュレーション条件に過度に適合しているため、運用環境における性能は根本的に低下する。
これらのシステムで直面する課題を正確に表すために、より多様で現実的なテストデータが必要である。
本稿では,ニューラルネットワークを利用して現実的で多様なテスト画像を生成し,vSLAMやオブジェクト検出などの視覚コンポーネントのメタモルフィックテストフレームワークに統合することで,自律システムに対する知覚テストデータを生成するという課題に対処する。
当社のツールであるN2R-Testerは、カスタムシーンのトレーニングモデルと、摂動位置からのテストイメージのレンダリングを可能にする。
AUVとUAVの8つの異なる視覚成分に対するN2R-Testerの実験的な評価は、アプローチの有効性と汎用性を示している。
関連論文リスト
- DroneWiS: Automated Simulation Testing of small Unmanned Aerial Systems in Realistic Windy Conditions [8.290044674335473]
DroneWiSは、sUAS開発者が現実的な風の条件を自動的にシミュレートし、sUASの風に対するレジリエンスをテストすることを可能にする。
ガゼボやAirSimのような現在の最先端のシミュレーションツールとは異なり、DroneWiSは計算流体力学(CFD)を利用してユニークな風速を計算する。
このシミュレーション機能は、困難で現実的な風の条件下でのsUASのナビゲーション能力について、開発者に深い洞察を提供する。
論文 参考訳(メタデータ) (2024-08-29T14:25:11Z) - Challenges of YOLO Series for Object Detection in Extremely Heavy Rain:
CALRA Simulator based Synthetic Evaluation Dataset [0.0]
様々なセンサー(LiDAR、レーダー、カメラなど)による物体検出は、自動運転車に優先されるべきである。
これらのセンサーは、多様な気象条件下で物体を正確に素早く検出する必要があるが、雨や雪、霧といった悪天候条件下で物体を一貫して検出することは困難である。
本研究では,降水条件から得られた雨滴データに基づいて,様々な降水条件下で多様なネットワークモデルをテストすることのできる新しいデータセットを構築した。
論文 参考訳(メタデータ) (2023-12-13T08:45:57Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - DroneReqValidator: Facilitating High Fidelity Simulation Testing for
Uncrewed Aerial Systems Developers [8.290044674335473]
sUAS開発者はシミュレーションテストを通じてアプリケーションの信頼性と安全性を検証することを目指している。
実世界の環境の動的な性質は、フィールドテストによってのみ明らかにされる可能性のある、ユニークなソフトウェア欠陥を引き起こす。
DroneReqValidator(DRV)は、小型無人航空機(SUAV)シミュレーションエコシステムを提供する。
論文 参考訳(メタデータ) (2023-07-31T22:13:57Z) - A Requirements-Driven Platform for Validating Field Operations of Small
Uncrewed Aerial Vehicles [48.67061953896227]
DroneReqValidator (DRV)は、sUAS開発者が運用コンテキストを定義し、複数のsUASミッション要件を設定し、安全性特性を指定し、独自のsUASアプリケーションを高忠実な3D環境にデプロイすることを可能にする。
DRVモニタリングシステムは、sUASと環境からランタイムデータを収集し、安全特性のコンプライアンスを分析し、違反をキャプチャする。
論文 参考訳(メタデータ) (2023-07-01T02:03:49Z) - Virtual Reality via Object Poses and Active Learning: Realizing
Telepresence Robots with Aerial Manipulation Capabilities [39.29763956979895]
本稿では,動的・非構造環境下での空中操作を進展させる新しいテレプレゼンスシステムを提案する。
提案システムは触覚デバイスだけでなく、ロボットのワークスペースのリアルタイム3Dディスプレイを提供する仮想現実(VR)インターフェースも備えている。
DLRケーブル・サスペンド・エアリアルマニピュレータ(SAM)によるピック・アンド・プレイス、フォース・アプリケーション、ペグ・イン・ホールの70以上の堅牢な実行を示す。
論文 参考訳(メタデータ) (2022-10-18T08:42:30Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - Worsening Perception: Real-time Degradation of Autonomous Vehicle
Perception Performance for Simulation of Adverse Weather Conditions [47.529411576737644]
本研究では,自律走行車両における簡易かつ軽量な画像強調システムの利用の可能性を検討する。
最小限の調整で、プロトタイプシステムは、カメラレンズ上の水滴と退色光条件の両方の効果を複製することができます。
論文 参考訳(メタデータ) (2021-03-03T23:49:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。