論文の概要: AirDet: Few-Shot Detection without Fine-tuning for Autonomous
Exploration
- arxiv url: http://arxiv.org/abs/2112.01740v1
- Date: Fri, 3 Dec 2021 06:41:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 02:42:13.386427
- Title: AirDet: Few-Shot Detection without Fine-tuning for Autonomous
Exploration
- Title(参考訳): airdet: 自律探査のための微調整なしの少数ショット検出
- Authors: Bowen Li, Chen Wang, Pranay Reddy, Seungchan Kim, Sebastian Scherer
- Abstract要約: 本稿では,支援画像とのクラス関係の学習による微調整が不要なAirDetを提案する。
AirDetは、徹底的に微調整された方法と同等またはそれ以上の結果を達成し、ベースラインで最大40~60%の改善を実現している。
DARPA潜水試験における実地探査実験の評価結果について述べる。
- 参考スコア(独自算出の注目度): 16.032316550612336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot object detection has rapidly progressed owing to the success of
meta-learning strategies. However, the requirement of a fine-tuning stage in
existing methods is timeconsuming and significantly hinders their usage in
real-time applications such as autonomous exploration of low-power robots. To
solve this problem, we present a brand new architecture, AirDet, which is free
of fine-tuning by learning class agnostic relation with support images.
Specifically, we propose a support-guided cross-scale (SCS) feature fusion
network to generate object proposals, a global-local relation network (GLR) for
shots aggregation, and a relation-based prototype embedding network (R-PEN) for
precise localization. Exhaustive experiments are conducted on COCO and PASCAL
VOC datasets, where surprisingly, AirDet achieves comparable or even better
results than the exhaustively finetuned methods, reaching up to 40-60%
improvements on the baseline. To our excitement, AirDet obtains favorable
performance on multi-scale objects, especially the small ones. Furthermore, we
present evaluation results on real-world exploration tests from the DARPA
Subterranean Challenge, which strongly validate the feasibility of AirDet in
robotics. The source code, pre-trained models, along with the real world data
for exploration, will be made public.
- Abstract(参考訳): メタ学習戦略の成功により、オブジェクト検出は急速に進歩している。
しかし、既存の手法における微調整段階の要件は時間がかかり、低消費電力ロボットの自律的な探索のようなリアルタイムアプリケーションでの使用を著しく妨げている。
この問題を解決するために,サポート画像とクラス非依存の関係を学習することで,微調整が不要な新しいアーキテクチャであるAirDetを提案する。
具体的には、オブジェクト提案を生成するためのSCS機能融合ネットワーク、ショットアグリゲーションのためのグローバルローカルリレーションネットワーク(GLR)、正確なローカライゼーションのためのリレーションベースのプロトタイプ埋め込みネットワーク(R-PEN)を提案する。
被曝実験はCOCOとPASCALのVOCデータセットで行われ、驚くべきことにAirDetは細調整された方法よりも同等かそれ以上の成果を上げ、ベースラインで最大40~60%の改善を達成した。
AirDetは、マルチスケールオブジェクト、特に小さなオブジェクトにおいて、良好なパフォーマンスを得ることができました。
さらに,ロボット工学におけるAirDetの有効性を強く評価するDARPA Subterranean Challengeによる実世界探査実験の評価結果を示す。
ソースコード、事前訓練されたモデルは、探索のための現実世界のデータとともに公開されます。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Label-Efficient 3D Object Detection For Road-Side Units [10.663986706501188]
協調的知覚は、インテリジェント・ロードサイド・ユニット(RSU)との深部情報融合による自動運転車の知覚を高める
これらの手法は、特に注釈付きRSUデータを必要とするため、実際のデプロイメントにおいて大きなハードルを生んでいる。
教師なしオブジェクト発見に基づくRSUのためのラベル効率の高いオブジェクト検出手法を考案する。
論文 参考訳(メタデータ) (2024-04-09T12:29:16Z) - AirShot: Efficient Few-Shot Detection for Autonomous Exploration [18.09990606406497]
ロボット探索では、オンラインで提供されたいくつかの例で、見えない物体を見つけるためにロボットが必要とされる。
既存のメソッドは、主に信頼性の低い機能と徹底したクラスループのために、パフォーマンスと効率の課題に直面しています。
我々は新しいパラダイムであるAirShotを提案し、AirShotは価値ある相関マップを完全に活用することによって、より堅牢な数発のオブジェクト検出システムを実現する。
論文 参考訳(メタデータ) (2024-04-07T20:39:31Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Comparing Active Learning Performance Driven by Gaussian Processes or
Bayesian Neural Networks for Constrained Trajectory Exploration [0.0]
現在、人間は科学的な目的を達成するためにロボットを駆動しているが、ロボットの位置によっては、情報交換と駆動コマンドがミッション遂行に不適切な遅延を引き起こす可能性がある。
科学的目的と探索戦略で符号化された自律ロボットは、通信遅延を発生させず、ミッションをより迅速に達成することができる。
能動学習アルゴリズムは知的探索の能力を提供するが、その基盤となるモデル構造は、環境の理解を正確に形成する際に、能動学習アルゴリズムの性能を変化させる。
論文 参考訳(メタデータ) (2023-09-28T02:45:14Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Aerial View Goal Localization with Reinforcement Learning [6.165163123577484]
本稿では,実際のUAVへのアクセスを必要とせずに,SAR(Search-and-Rescue)のようなセットアップをエミュレートするフレームワークを提案する。
この枠組みでは、エージェントが空中画像(探索領域のプロキシ)上で動作し、視覚的手がかりとして記述されたゴールのローカライズを行う。
AiRLocは、探索(遠方目標探索)と搾取(近方目標の局所化)を分離する強化学習(RL)に基づくモデルである。
論文 参考訳(メタデータ) (2022-09-08T10:27:53Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Adaptive Informative Path Planning Using Deep Reinforcement Learning for
UAV-based Active Sensing [2.6519061087638014]
深層強化学習(RL)に基づく情報経路計画のための新しい手法を提案する。
本手法は,モンテカルロ木探索とオフライン学習ニューラルネットワークを組み合わせた情報知覚行動の予測を行う。
ミッション中にトレーニングされたネットワークをデプロイすることにより、限られた計算資源を持つ物理プラットフォーム上で、サンプル効率の良いオンラインリプランニングが可能になる。
論文 参考訳(メタデータ) (2021-09-28T09:00:55Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。