論文の概要: An Intent Modeling and Inference Framework for Autonomous and Remotely Piloted Aerial Systems
- arxiv url: http://arxiv.org/abs/2409.08472v1
- Date: Fri, 13 Sep 2024 01:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 18:07:55.068293
- Title: An Intent Modeling and Inference Framework for Autonomous and Remotely Piloted Aerial Systems
- Title(参考訳): 自律・遠隔操縦型航空システムのためのインテントモデリングと推論フレームワーク
- Authors: Kesav Kaza, Varun Mehta, Hamid Azad, Miodrag Bolic, Iraj Mantegh,
- Abstract要約: 非許可飛行からジオフェンスを保護するための防衛計画を支援するために、インテントモデリングと推論の枠組みが提示される。
クリティカル・ウェイポイントとクリティカル・ウェイポイント・パターンの概念を導入し、意図を完全に特徴づける動作プロセスと関連付ける。
障害物のある2次元および3次元環境における自律的、半自律的、およびパイロットシステムに適用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An intent modelling and inference framework is presented to assist the defense planning for protecting a geo-fence against unauthorized flights. First, a novel mathematical definition for the intent of an uncrewed aircraft system (UAS) is presented. The concepts of critical waypoints and critical waypoint patterns are introduced and associated with a motion process to fully characterize an intent. This modelling framework consists of representations of a UAS mission planner, used to plan the aircraft's motion sequence, as well as a defense planner, defined to protect the geo-fence. It is applicable to autonomous, semi-autonomous, and piloted systems in 2D and 3D environments with obstacles. The framework is illustrated by defining a library of intents for a security application. Detection and tracking of the target are presumed for formulating the intent inference problem. Multiple formulations of the decision maker's objective are discussed as part of a deep-learning-based methodology. Further, a multi-modal dynamic model for characterizing the UAS flight is discussed. This is later utilized to extract features using the interacting multiple model (IMM) filter for training the intent classifier. Finally, as part of the simulation study, an attention-based bi-directional long short-term memory (Bi-LSTM) network for intent inference is presented. The simulation experiments illustrate various aspects of the framework, including trajectory generation, radar measurement simulation, etc., in 2D and 3D environments.
- Abstract(参考訳): 非許可飛行からジオフェンスを保護するための防衛計画を支援するために、インテントモデリングと推論の枠組みが提示される。
まず,無人航空機システム(UAS)の意図を数学的に定義する。
クリティカル・ウェイポイントとクリティカル・ウェイポイント・パターンの概念を導入し、意図を完全に特徴づける動作プロセスと関連付ける。
このモデリングフレームワークは、UASのミッションプランナーの表現で航空機の動きシーケンスを計画するために使用され、またジオフェンスを保護するために定義された防衛プランナーで構成されている。
障害物のある2次元および3次元環境における自律的、半自律的、およびパイロットシステムに適用できる。
このフレームワークは、セキュリティアプリケーションのための意図のライブラリを定義することで説明されている。
意図推論問題を定式化するために、ターゲットの検出と追跡を推定する。
深層学習手法の一環として,意思決定者の目的の複数の定式化について論じる。
さらに,UAS飛行を特徴付けるマルチモーダルダイナミックモデルについて論じる。
これは後に、インテント分類器を訓練するために対話型多重モデル (IMM) フィルタを用いて特徴を抽出するために使われる。
最後に、シミュレーション研究の一環として、インテント推論のための注目ベースの双方向長短期メモリ(Bi-LSTM)ネットワークを提示する。
シミュレーション実験では,2次元および3次元環境における軌道生成,レーダ計測シミュレーションなど,フレームワークのさまざまな側面を概説した。
関連論文リスト
- Multi-Model 3D Registration: Finding Multiple Moving Objects in
Cluttered Point Clouds [23.923838486208524]
マルチモデル3D登録問題(Multi-model 3D registration)のバリエーションについて検討する。
マルチモデル登録問題では、異なるポーズでオブジェクトの集合を撮影する2点の雲が与えられる。
私たちは、すべてのオブジェクトが2点の雲の間を移動する様子を同時に再構築したいと考えています。
論文 参考訳(メタデータ) (2024-02-16T18:01:43Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Pixel State Value Network for Combined Prediction and Planning in
Interactive Environments [9.117828575880303]
本研究は,予測と計画を組み合わせた深層学習手法を提案する。
U-Netアーキテクチャを持つ条件付きGANは、2つの高解像度画像シーケンスを予測するために訓練される。
結果は、対立する目的の中で車線の変化のような複雑な状況において直感的な行動を示す。
論文 参考訳(メタデータ) (2023-10-11T17:57:13Z) - ST-P3: End-to-end Vision-based Autonomous Driving via Spatial-Temporal
Feature Learning [132.20119288212376]
本稿では,認識,予測,計画タスクを同時に行うための,より代表的な特徴の集合に対する時空間的特徴学習手法を提案する。
私たちの知識を最大限に活用するために、私たちは、解釈可能なエンドツーエンドの自動運転システムの各部分を体系的に調査した最初の人です。
論文 参考訳(メタデータ) (2022-07-15T16:57:43Z) - PillarGrid: Deep Learning-based Cooperative Perception for 3D Object
Detection from Onboard-Roadside LiDAR [15.195933965761645]
我々は,複数の3次元LiDARからの情報を融合した新しい協調認識手法であるtextitPillarGridを提案する。
PillarGrid は,1) 点雲の協調前処理,2) 軸方向のボキセル化と特徴抽出,3) 複数のセンサからの特徴のグリッド方向の深層融合,4) 畳み込みニューラルネットワーク(CNN) に基づく3Dオブジェクト検出である。
広汎な実験により、PillarGridはSOTA単一LiDARに基づく3Dオブジェクト検出法よりも精度と範囲を大きなマージンで上回ることがわかった。
論文 参考訳(メタデータ) (2022-03-12T02:28:41Z) - Predicting Stable Configurations for Semantic Placement of Novel Objects [37.18437299513799]
我々のゴールは、新しい環境における学習された意味的関係に従って、ロボットが未確認の物体を配置できるようにすることである。
我々は、未知のオブジェクトのセマンティック配置のための計画アルゴリズムと密に統合するために、モデルとトレーニングをゼロから構築する。
提案手法は,RGB-Dセンシングのみによる形状の異なるシーンにおける未知物体のセマンティック・アレンジメントのための動作計画を可能にする。
論文 参考訳(メタデータ) (2021-08-26T23:05:05Z) - Enabling Visual Action Planning for Object Manipulation through Latent
Space Roadmap [72.01609575400498]
高次元状態空間を有する複雑な操作タスクの視覚的行動計画のための枠組みを提案する。
低次元潜時空間におけるシステムダイナミクスを世界規模で捉えたグラフベースの構造であるタスク計画のためのLatent Space Roadmap(LSR)を提案する。
実ロボットで実行された2つの模擬ボックス積み重ねタスクと折り畳みタスクについて,本フレームワークの徹底的な検討を行う。
論文 参考訳(メタデータ) (2021-03-03T17:48:26Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。