論文の概要: Active Classification of Moving Targets with Learned Control Policies
- arxiv url: http://arxiv.org/abs/2212.03068v2
- Date: Wed, 7 Dec 2022 08:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 16:41:55.168491
- Title: Active Classification of Moving Targets with Learned Control Policies
- Title(参考訳): 学習制御ポリシーを用いた移動目標のアクティブ分類
- Authors: \'Alvaro Serra-G\'omez, Eduardo Montijano, Wendelin B\"ohmer, Javier
Alonso-Mora
- Abstract要約: ドローンが複数の移動目標を分類するために意味情報を収集しなければならない問題を考える。
我々は、ドローンの次の視点を出力する、強化学習(Reinforcement Learning, RL)によって訓練された、新しい注意に基づくアーキテクチャを提案する。
このアプローチは,さまざまなベースラインを上回るだけでなく,トレーニング中に見つからないシナリオにも適用可能であることを示す。
- 参考スコア(独自算出の注目度): 12.850302795872201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the problem where a drone has to collect semantic
information to classify multiple moving targets. In particular, we address the
challenge of computing control inputs that move the drone to informative
viewpoints, position and orientation, when the information is extracted using a
"black-box" classifier, e.g., a deep learning neural network. These algorithms
typically lack of analytical relationships between the viewpoints and their
associated outputs, preventing their use in information-gathering schemes. To
fill this gap, we propose a novel attention-based architecture, trained via
Reinforcement Learning (RL), that outputs the next viewpoint for the drone
favoring the acquisition of evidence from as many unclassified targets as
possible while reasoning about their movement, orientation, and occlusions.
Then, we use a low-level MPC controller to move the drone to the desired
viewpoint taking into account its actual dynamics. We show that our approach
not only outperforms a variety of baselines but also generalizes to scenarios
unseen during training. Additionally, we show that the network scales to large
numbers of targets and generalizes well to different movement dynamics of the
targets.
- Abstract(参考訳): 本稿では,複数の移動目標を分類するために,ドローンが意味情報を収集しなければならない問題を考える。
特に,「ブラックボックス」分類器,例えばディープ・ラーニング・ニューラルネットを用いて情報を抽出した場合,ドローンを情報的視点,位置,方向へと移動させる制御入力を計算することの課題に対処する。
これらのアルゴリズムは通常、視点と関連する出力の間の分析的関係が欠如しており、情報収集スキームでの使用を妨げている。
このギャップを埋めるために,本研究は,ドローンの移動,方向,咬合について推論しながら,できるだけ多くの非分類対象から証拠を取得することを好む次の視点として,強化学習(rl)によって訓練された,新たな注意に基づくアーキテクチャを提案する。
そして、実際のダイナミクスを考慮した低レベルのmpcコントローラを使用して、ドローンを望ましい視点に移動させる。
このアプローチは,さまざまなベースラインを上回るだけでなく,トレーニング中に見つからないシナリオにも適用可能であることを示す。
さらに,ネットワークが多数のターゲットにスケールし,ターゲットの異なる移動ダイナミクスによく一般化することを示す。
関連論文リスト
- Zero-Shot Object Goal Visual Navigation With Class-Independent Relationship Network [3.0820097046465285]
ゼロショット(Zero-shot)とは、エージェントが探すべきターゲットがトレーニングフェーズ中にトレーニングされないことを意味する。
本研究では,学習中の目標特徴とナビゲーション能力の結合の問題に対処するために,クラス独立関係ネットワーク(CIRN)を提案する。
本手法は、ゼロショット目標視覚ナビゲーションタスクにおける最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2023-10-15T16:42:14Z) - CDFSL-V: Cross-Domain Few-Shot Learning for Videos [58.37446811360741]
ビデオのアクション認識は、いくつかのラベル付き例でのみ、新しいカテゴリを認識するための効果的なアプローチである。
既存のビデオアクション認識の方法は、同じドメインからの大きなラベル付きデータセットに依存している。
本稿では,自己教師付き学習とカリキュラム学習を活用した,クロスドメインな数ショットビデオ行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T19:44:27Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Zero-shot object goal visual navigation [15.149900666249096]
実際の家庭では、ロボットが扱うべき多くのオブジェクトクラスが存在するかもしれない。
ゼロショット学習とオブジェクト目標ビジュアルナビゲーションを組み合わせたゼロショットオブジェクトナビゲーションタスクを提案する。
我々のモデルは、目に見えないクラスと見えないクラスの両方でベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-06-15T09:53:43Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - Decentralized Reinforcement Learning for Multi-Target Search and
Detection by a Team of Drones [12.055303570215335]
対象の探索と検出は、カバレッジ、監視、探索、観測、追跡回避など、さまざまな決定問題を含む。
我々は,未知の領域における静的な目標のセットを特定するために,航空機群(ドローン)を協調させるマルチエージェント深部強化学習法(MADRL)を開発した。
論文 参考訳(メタデータ) (2021-03-17T09:04:47Z) - Blending of Learning-based Tracking and Object Detection for Monocular
Camera-based Target Following [2.578242050187029]
本稿では,ジェネリックターゲットトラッカーとオブジェクト検出モジュールを対象再識別モジュールと融合するリアルタイムアプローチを提案する。
本研究は,進化的リカレントニューラルネットワークを用いたオブジェクトトラッカーの性能向上に重点を置いている。
論文 参考訳(メタデータ) (2020-08-21T18:44:35Z) - Learning to Track Dynamic Targets in Partially Known Environments [48.49957897251128]
我々は、アクティブな目標追跡を解決するために、深層強化学習アプローチを用いる。
特に,アクティブ・トラッカー・ターゲティング・ネットワーク(ATTN)を導入し,アクティブ・ターゲティング・ターゲティングの主要なタスクを解決するための統一的なRLポリシーを提案する。
論文 参考訳(メタデータ) (2020-06-17T22:45:24Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。