論文の概要: An LLM-based Framework for Human-Swarm Teaming Cognition in Disaster Search and Rescue
- arxiv url: http://arxiv.org/abs/2511.04042v1
- Date: Thu, 06 Nov 2025 04:27:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.300272
- Title: An LLM-based Framework for Human-Swarm Teaming Cognition in Disaster Search and Rescue
- Title(参考訳): 災害調査・救助における人間-スワムチーム認知のためのLLMフレームワーク
- Authors: Kailun Ji, Xiaoyu Hu, Xinyu Zhang, Jun Chen,
- Abstract要約: 大規模災害探索・救助(SAR)の運用は複雑な地形と通信を妨害する。
Unmanned Aerial Vehicle(UAV)は、広域検索やサプライデリバリーといったタスクに対して、有望なソリューションを提供するが、その効果的な調整は、人間のオペレーターに重大な認知的負担を与える。
本研究では,Large Language Models (LLMs) を応用し,人間とスワームの協調認知をモデル化・拡張する新しいLLM-CRFシステムを提案する。
- 参考スコア(独自算出の注目度): 11.300720465575608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale disaster Search And Rescue (SAR) operations are persistently challenged by complex terrain and disrupted communications. While Unmanned Aerial Vehicle (UAV) swarms offer a promising solution for tasks like wide-area search and supply delivery, yet their effective coordination places a significant cognitive burden on human operators. The core human-machine collaboration bottleneck lies in the ``intention-to-action gap'', which is an error-prone process of translating a high-level rescue objective into a low-level swarm command under high intensity and pressure. To bridge this gap, this study proposes a novel LLM-CRF system that leverages Large Language Models (LLMs) to model and augment human-swarm teaming cognition. The proposed framework initially captures the operator's intention through natural and multi-modal interactions with the device via voice or graphical annotations. It then employs the LLM as a cognitive engine to perform intention comprehension, hierarchical task decomposition, and mission planning for the UAV swarm. This closed-loop framework enables the swarm to act as a proactive partner, providing active feedback in real-time while reducing the need for manual monitoring and control, which considerably advances the efficacy of the SAR task. We evaluate the proposed framework in a simulated SAR scenario. Experimental results demonstrate that, compared to traditional order and command-based interfaces, the proposed LLM-driven approach reduced task completion time by approximately $64.2\%$ and improved task success rate by $7\%$. It also leads to a considerable reduction in subjective cognitive workload, with NASA-TLX scores dropping by $42.9\%$. This work establishes the potential of LLMs to create more intuitive and effective human-swarm collaborations in high-stakes scenarios.
- Abstract(参考訳): 大規模災害探索・救助(SAR)の運用は複雑な地形と通信を妨害する。
Unmanned Aerial Vehicle(UAV)は、広域検索やサプライデリバリーといったタスクに対して、有望なソリューションを提供するが、その効果的な調整は、人間のオペレーターに重大な認知的負担を与える。
これは、高レベルの救助目標を高い強度と圧力下で低レベルのSwarmコマンドに翻訳する、エラーを起こしやすいプロセスである。
このギャップを埋めるために,LLM-CRFシステムを提案する。
提案したフレームワークは、音声やグラフィカルなアノテーションを通じて、デバイスとの自然なマルチモーダルなインタラクションを通じて、オペレータの意図をキャプチャする。
その後、LLMを認知エンジンとして使用し、意図的な理解、階層的なタスクの分解、UAVスワムのミッションプランニングを行う。
このクローズドループフレームワークは、Swarmがアクティブなパートナとして機能し、手動監視と制御の必要性を低減しつつ、リアルタイムにアクティブなフィードバックを提供する。
提案手法をシミュレーションしたSARシナリオで評価する。
実験の結果、従来の順序やコマンドベースのインタフェースと比較して、提案されたLCM駆動のアプローチはタスク完了時間を約6.2 %、タスク成功率を7 %削減した。
また、NASA-TLXのスコアは42.9 %$に低下するなど、主観的認知作業負荷の大幅な削減につながった。
この研究は、LLMがより直感的で効果的な人間とスワームのコラボレーションを、より高度なシナリオで作成する可能性を確立する。
関連論文リスト
- Can LLM Agents Solve Collaborative Tasks? A Study on Urgency-Aware Planning and Coordination [4.511923587827302]
大規模言語モデル(LLM)は、コミュニケーション、計画、推論において強力な能力を示している。
本研究は,マルチエージェント協調作業におけるLCMの強みと失敗モードに関する新たな知見を提供する。
論文 参考訳(メタデータ) (2025-08-20T11:44:10Z) - LLM Meets the Sky: Heuristic Multi-Agent Reinforcement Learning for Secure Heterogeneous UAV Networks [57.27815890269697]
この研究は、エネルギー制約下での不均一なUAVネットワーク(HetUAVN)における機密率の最大化に焦点を当てている。
本稿では,Large Language Model (LLM) を用いたマルチエージェント学習手法を提案する。
その結果,本手法は機密性やエネルギー効率において,既存のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-07-23T04:22:57Z) - A Multi-Agent Reinforcement Learning Approach for Cooperative Air-Ground-Human Crowdsensing in Emergency Rescue [22.201769922727077]
本稿では,ヒト,UAV,UGVを考慮し,不均一な協調作業割当問題に対処する。
我々は,UGVが低電池UAVのチャージを優先し,検知タスクを遂行する,新しい「ハード・コラボレーティブ」政策を導入する。
本稿では,分散実行アーキテクチャに基づく新しいマルチエージェント強化学習アルゴリズムであるHECTA4ERを提案する。
論文 参考訳(メタデータ) (2025-05-11T14:49:15Z) - Application of Deep Reinforcement Learning to UAV Swarming for Ground Surveillance [0.0]
マルチエージェント集中型Swarmアーキテクチャに深層強化学習を統合するハイブリッドAIシステムを提案する。
提案システムは、特定のエリアの監視、地上目標の探索と追跡、セキュリティおよび法執行機関の応用に適したシステムである。
論文 参考訳(メタデータ) (2025-01-15T08:46:20Z) - PARTNR: A Benchmark for Planning and Reasoning in Embodied Multi-agent Tasks [57.89516354418451]
我々は,HumaN-Robotコラボレーション(PARTNR)における計画と推論タスクのベンチマークを示す。
大規模言語モデル(LLM)を用いた半自動タスク生成パイプラインを用いる。
我々は、計画、知覚、スキル実行の軸を越えて、PartinNRタスクにおける最先端のLCMを分析します。
論文 参考訳(メタデータ) (2024-10-31T17:53:12Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Semantically Aligned Task Decomposition in Multi-Agent Reinforcement
Learning [56.26889258704261]
我々は,MARL(SAMA)における意味的アライズされたタスク分解という,新しい「不整合」意思決定手法を提案する。
SAMAは、潜在的な目標を示唆し、適切な目標分解とサブゴールアロケーションを提供するとともに、自己回帰に基づくリプランニングを提供する、チェーン・オブ・シントによる事前訓練された言語モデルを促進する。
SAMAは, 最先端のASG法と比較して, 試料効率に有意な優位性を示す。
論文 参考訳(メタデータ) (2023-05-18T10:37:54Z) - Distributed Reinforcement Learning for Flexible and Efficient UAV Swarm
Control [28.463670610865837]
本稿では,大規模群に拡大する分散強化学習(RL)手法を提案する。
本実験では, 本手法がコミュニケーションチャネル障害に強い効果的な戦略を導出できることを示した。
また,本手法は計算集約的なルックアヘッドに比べて優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2021-03-08T11:06:28Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。