論文の概要: A Universal Large Language Model -- Drone Command and Control Interface
- arxiv url: http://arxiv.org/abs/2601.15486v1
- Date: Wed, 21 Jan 2026 21:37:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.896533
- Title: A Universal Large Language Model -- Drone Command and Control Interface
- Title(参考訳): ユニバーサル大言語モデル - ドローンの指令と制御インタフェース-
- Authors: Javier N. Ramos-Silva, Peter J. Burke,
- Abstract要約: 我々は,MavlinkプロトコルをサポートするMPPサーバをホストするクラウドベースのLinuxマシンを開発し,デプロイする。
実際の無人航空機の飛行制御を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of artificial intelligence (AI) for drone control can have a transformative impact on drone capabilities, especially when real world information can be integrated with drone sensing, command, and control, part of a growing field of physical AI. Large language models (LLMs) can be advantageous if trained at scale on general knowledge, but especially and in particular when the training data includes information such as detailed map geography topology of the entire planet, as well as the ability to access real time situational data such as weather. However, challenges remain in the interface between drones and LLMs in general, with each application requiring a tedious, labor intensive effort to connect the LLM trained knowledge to drone command and control. Here, we solve that problem, using an interface strategy that is LLM agnostic and drone agnostic, providing the first universal, versatile, comprehensive and easy to use drone control interface. We do this using the new model context protocol (MCP) standard, an open standard that provides a universal way for AI systems to access external data, tools, and services. We develop and deploy a cloud based Linux machine hosting an MCP server that supports the Mavlink protocol, an ubiquitous drone control language used almost universally by millions of drones including Ardupilot and PX4 framework.We demonstrate flight control of a real unmanned aerial vehicle. In further testing, we demonstrate extensive flight planning and control capability in a simulated drone, integrated with a Google Maps MCP server for up to date, real time navigation information. This demonstrates a universal approach to integration of LLMs with drone command and control, a paradigm that leverages and exploits virtually all of modern AI industry with drone technology in an easy to use interface that translates natural language to drone control.
- Abstract(参考訳): ドローン制御に人工知能(AI)を使用することは、ドローンの能力に変革をもたらす可能性がある。
大規模言語モデル(LLM)は、一般的な知識に基づいて大規模に訓練された場合、特に、地球全体の詳細な地図地形や気象などのリアルタイムな状況データへのアクセスなどの情報を含む場合、有利である。
しかし、ドローンとLLMのインターフェースには課題が残っており、それぞれのアプリケーションは、LLMが訓練した知識をドローンの指令と制御に結びつけるために、面倒で労力を要する。
ここでは、LLM非依存かつドローン非依存のインターフェース戦略を用いて、ドローン制御インターフェースを初めて利用し、汎用的で、汎用的で、包括的で、使いやすくする。
私たちは、AIシステムが外部データ、ツール、サービスにアクセスする普遍的な方法を提供するオープンスタンダードである、新しいモデルコンテキストプロトコル(MCP)標準を使ってこれを行っています。
我々は、ArdupilotやPX4フレームワークを含む数百万のドローンがほぼ普遍的に使用しているユビキタスドローン制御言語であるMavlinkプロトコルをサポートするMPPサーバをホストするクラウドベースのLinuxマシンを開発し、デプロイする。
さらに,Google MapsのMPPサーバと統合して,リアルタイムナビゲーション情報を提供するシミュレートされたドローンにおいて,広範な飛行計画と制御能力を示す。
これは、LLMをドローンのコマンドとコントロールと統合するための普遍的なアプローチを実証している。これは、現代のAI産業のほぼすべての部分を、自然言語からドローンの制御へ翻訳する使いやすいインターフェースで活用し、活用するパラダイムだ。
関連論文リスト
- AeroGen: Agentic Drone Autonomy through Single-Shot Structured Prompting & Drone SDK [3.1941554288428193]
AeroGenは、一貫した正しい単発AI生成ドローン制御プログラムを可能にするオープンループフレームワークである。
実環境とシミュレーションの両方において,AeroGenが約40行のAeroD Pythonコードを生成することを示す。
論文 参考訳(メタデータ) (2026-03-15T06:16:02Z) - Large Language Models to Enhance Multi-task Drone Operations in Simulated Environments [7.546510363080917]
本論文では,Unreal Engine をベースとしたAirSim ドローンシミュレータに,微調整の CodeT5 モデルを統合する手法を提案する。
提案手法は,シミュレーション環境におけるタスク実行効率とコマンド理解能力に優れる。
論文 参考訳(メタデータ) (2026-01-13T10:21:17Z) - Chasing the Intruder: A Reinforcement Learning Approach for Tracking
Intruder Drones [0.08192907805418582]
本研究では、チェッカードローンを用いて侵入者ドローンを識別・追跡するための強化学習に基づくアプローチを提案する。
提案手法は、強化学習の政策学習フレームワークにインターリーブされたコンピュータビジョン技術を用いている。
その結果、強化学習に基づくポリシーは、侵入者ドローンを識別・追跡するために収束していることがわかった。
論文 参考訳(メタデータ) (2023-09-10T16:31:40Z) - Multi-model fusion for Aerial Vision and Dialog Navigation based on
human attention aids [69.98258892165767]
本稿では,2023年ICCV会話史のための航空航法課題について述べる。
本稿では,人間注意支援型トランスフォーマモデル(HAA-Transformer)と人間注意支援型LSTMモデル(HAA-LSTM)の融合訓練方法を提案する。
論文 参考訳(メタデータ) (2023-08-27T10:32:52Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - LM-Nav: Robotic Navigation with Large Pre-Trained Models of Language,
Vision, and Action [76.71101507291473]
本稿では,無注釈の大規模軌跡データに対するトレーニングの恩恵を享受するロボットナビゲーションシステムLM-Navを提案する。
本研究では,ナビゲーション(ViNG),画像言語アソシエーション(CLIP),言語モデリング(GPT-3)の事前学習モデルから構築可能なシステムについて述べる。
論文 参考訳(メタデータ) (2022-07-10T10:41:50Z) - Aerial Vision-and-Dialog Navigation [10.596163697911525]
本稿では,Aerial Vision-and-Dialog Navigation (AVDN)を紹介した。
連続した環境でドローンシミュレータを構築し、3k以上の航法軌跡を記録した新しいAVDNデータセットを収集する。
本研究では,ナビゲーション経路と人的注意の両方を予測するための効果的なヒューマンアテンション支援変換モデル(HAA-Transformer)を提案する。
論文 参考訳(メタデータ) (2022-05-24T17:28:14Z) - Learn by Observation: Imitation Learning for Drone Patrolling from
Videos of A Human Navigator [22.06785798356346]
本研究では,人間航法士が地上でどのように行うかを観察し,模擬することにより,ドローンに空中パトロールを学ばせることを提案する。
観察プロセスは、フレーム間の幾何一貫性を利用してデータの自動収集とアノテーションを可能にする。
アノテーション付きデータに基づいて、新たに設計されたニューラルネットワークをトレーニングし、適切な方向と翻訳を予測する。
論文 参考訳(メタデータ) (2020-08-30T15:20:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。