論文の概要: AirShot: Efficient Few-Shot Detection for Autonomous Exploration
- arxiv url: http://arxiv.org/abs/2404.05069v1
- Date: Sun, 7 Apr 2024 20:39:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 16:02:57.630876
- Title: AirShot: Efficient Few-Shot Detection for Autonomous Exploration
- Title(参考訳): AirShot: 自律探査のための効率的なFew-Shot検出
- Authors: Zihan Wang, Bowen Li, Chen Wang, Sebastian Scherer,
- Abstract要約: ロボット探索では、オンラインで提供されたいくつかの例で、見えない物体を見つけるためにロボットが必要とされる。
既存のメソッドは、主に信頼性の低い機能と徹底したクラスループのために、パフォーマンスと効率の課題に直面しています。
我々は新しいパラダイムであるAirShotを提案し、AirShotは価値ある相関マップを完全に活用することによって、より堅牢な数発のオブジェクト検出システムを実現する。
- 参考スコア(独自算出の注目度): 18.09990606406497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot object detection has drawn increasing attention in the field of robotic exploration, where robots are required to find unseen objects with a few online provided examples. Despite recent efforts have been made to yield online processing capabilities, slow inference speeds of low-powered robots fail to meet the demands of real-time detection-making them impractical for autonomous exploration. Existing methods still face performance and efficiency challenges, mainly due to unreliable features and exhaustive class loops. In this work, we propose a new paradigm AirShot, and discover that, by fully exploiting the valuable correlation map, AirShot can result in a more robust and faster few-shot object detection system, which is more applicable to robotics community. The core module Top Prediction Filter (TPF) can operate on multi-scale correlation maps in both the training and inference stages. During training, TPF supervises the generation of a more representative correlation map, while during inference, it reduces looping iterations by selecting top-ranked classes, thus cutting down on computational costs with better performance. Surprisingly, this dual functionality exhibits general effectiveness and efficiency on various off-the-shelf models. Exhaustive experiments on COCO2017, VOC2014, and SubT datasets demonstrate that TPF can significantly boost the efficacy and efficiency of most off-the-shelf models, achieving up to 36.4% precision improvements along with 56.3% faster inference speed. Code and Data are at: https://github.com/ImNotPrepared/AirShot.
- Abstract(参考訳): ロボット探索では、オンラインで提供されたいくつかの例で、見えない物体を見つけるためにロボットが必要とされる。
近年、オンライン処理能力を得る努力が続けられているにもかかわらず、低出力ロボットの速度の遅い推論速度は、リアルタイム検出の要求を満たすことができず、自律的な探索には実用的ではない。
既存のメソッドは、主に信頼性の低い機能と徹底したクラスループのために、パフォーマンスと効率の課題に直面しています。
本研究では,新しいパラダイムであるAirShotを提案するとともに,AirShotが価値ある相関マップを十分に活用することにより,より堅牢で高速な複数ショットオブジェクト検出システムを実現し,ロボットコミュニティにも適用可能であることを明らかにする。
コアモジュールトップ予測フィルタ(TPF)は、トレーニングと推論の両方の段階において、マルチスケールの相関マップで動作する。
トレーニング中、TPFはより代表的な相関マップの生成を監督する一方、推論中はトップランクのクラスを選択することでループの繰り返しを減らし、より良いパフォーマンスで計算コストを削減する。
驚くべきことに、このデュアル機能は様々なオフザシェルフモデルに対して、一般的な効率性と効率性を示す。
COCO2017、VOC2014、SubTデータセットの発掘実験は、TPFがほとんどの市販モデルの有効性と効率を大幅に向上し、56.3%高速な推論速度とともに36.4%の精度向上を達成することを示した。
コードとデータは https://github.com/ImNotPrepared/AirShot.com にある。
関連論文リスト
- TSCM: A Teacher-Student Model for Vision Place Recognition Using Cross-Metric Knowledge Distillation [6.856317526681759]
視覚的位置認識は、移動ロボットの自律的な探索とナビゲーションにおいて重要な役割を果たす。
既存の手法では、強力だが大規模なネットワークを利用することでこれを克服している。
本稿では,TSCMと呼ばれる高性能な教師と軽量な学生蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T02:29:41Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - DiffNAS: Bootstrapping Diffusion Models by Prompting for Better
Architectures [63.12993314908957]
そこで我々は,DiffNASと呼ばれるベースモデル探索手法を提案する。
GPT-4をスーパーネットとして利用して検索を高速化し,検索メモリを補足して結果を向上する。
厳密な実験により,GPTに基づくシナリオでは,探索効率を2倍に向上できることが示された。
論文 参考訳(メタデータ) (2023-10-07T09:10:28Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Analysis and Adaptation of YOLOv4 for Object Detection in Aerial Images [0.0]
本研究は,空中画像中の物体とその位置を予測するためのYOLOv4フレームワークの適応性を示す。
トレーニングされたモデルは平均的な平均精度(mAP)が45.64%となり、推論速度はTesla K80 GPUで8.7FPSに達した。
いくつかの現代の空中物体検出器との比較研究により、YOLOv4はより優れた性能を示し、航空プラットフォームに組み込むのにより適した検出アルゴリズムが示唆された。
論文 参考訳(メタデータ) (2022-03-18T23:51:09Z) - AirDet: Few-Shot Detection without Fine-tuning for Autonomous
Exploration [16.032316550612336]
本稿では,支援画像とのクラス関係の学習による微調整が不要なAirDetを提案する。
AirDetは、徹底的に微調整された方法と同等またはそれ以上の結果を達成し、ベースラインで最大40~60%の改善を実現している。
DARPA潜水試験における実地探査実験の評価結果について述べる。
論文 参考訳(メタデータ) (2021-12-03T06:41:07Z) - Lite-FPN for Keypoint-based Monocular 3D Object Detection [18.03406686769539]
keypointベースのモノクロ3dオブジェクト検出は、非常に進歩し、高い速度精度のトレードオフを達成した。
マルチスケール機能融合を実現する軽量機能ピラミッドネットワークLite-FPNを提案します。
提案手法は,高い精度とフレームレートを同時に達成する。
論文 参考訳(メタデータ) (2021-05-01T14:44:31Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Assembly robots with optimized control stiffness through reinforcement
learning [3.4410212782758047]
本稿では,ロボットの性能向上のために強化学習を利用する手法を提案する。
提案手法は,局所軌道最適化の性能向上に役立つ剛性行列のオンライン生成を保証する。
本手法の有効性は,2つのコンタクトリッチタスクを含む実験により検証した。
論文 参考訳(メタデータ) (2020-02-27T15:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。