論文の概要: HumanDiffusion: A Vision-Based Diffusion Trajectory Planner with Human-Conditioned Goals for Search and Rescue UAV
- arxiv url: http://arxiv.org/abs/2601.14973v1
- Date: Wed, 21 Jan 2026 13:22:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.375545
- Title: HumanDiffusion: A Vision-Based Diffusion Trajectory Planner with Human-Conditioned Goals for Search and Rescue UAV
- Title(参考訳): Human Diffusion:UAVの探索と救助のための人為的なゴールを持つ視覚に基づく拡散軌道プランナー
- Authors: Faryal Batool, Iana Zhura, Valerii Serpiva, Roohan Ahmed Khan, Ivan Valuev, Issatay Tokmurziyev, Dzmitry Tsetserukou,
- Abstract要約: 本稿では,人間を意識したナビゲーショントラジェクトリを生成する軽量な画像調和拡散プランナであるHumanDiffusionを提案する。
このシステムは、YOLO-11をベースとした人間の検出と拡散駆動軌道生成を組み合わせることで、四極子を標的人物に接近させ、医療支援を提供する。
実世界の実験では、事故応答と捜索・配置のタスクで全体のミッション成功率が80%であることを示した。
- 参考スコア(独自算出の注目度): 1.964570633684439
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reliable human--robot collaboration in emergency scenarios requires autonomous systems that can detect humans, infer navigation goals, and operate safely in dynamic environments. This paper presents HumanDiffusion, a lightweight image-conditioned diffusion planner that generates human-aware navigation trajectories directly from RGB imagery. The system combines YOLO-11--based human detection with diffusion-driven trajectory generation, enabling a quadrotor to approach a target person and deliver medical assistance without relying on prior maps or computationally intensive planning pipelines. Trajectories are predicted in pixel space, ensuring smooth motion and a consistent safety margin around humans. We evaluate HumanDiffusion in simulation and real-world indoor mock-disaster scenarios. On a 300-sample test set, the model achieves a mean squared error of 0.02 in pixel-space trajectory reconstruction. Real-world experiments demonstrate an overall mission success rate of 80% across accident-response and search-and-locate tasks with partial occlusions. These results indicate that human-conditioned diffusion planning offers a practical and robust solution for human-aware UAV navigation in time-critical assistance settings.
- Abstract(参考訳): 緊急時の信頼性の高い人間-ロボットのコラボレーションには、人間を検出し、ナビゲーションの目標を推測し、動的環境で安全に操作できる自律システムが必要である。
本稿では,RGB画像から直接人認識ナビゲーショントラジェクトリを生成する軽量な画像調和拡散プランナであるHumanDiffusionを提案する。
このシステムは、YOLO-11をベースとした人間の検出と拡散駆動軌道生成を組み合わせることで、四重項が対象人物に近づき、事前の地図や計算集約的な計画パイプラインに頼ることなく医療支援を行うことを可能にする。
軌道はピクセル空間で予測され、滑らかな動きと人間の周りの一貫した安全マージンが保証される。
シミュレーションおよび実世界における室内モック・ディザスターシナリオにおけるヒューマンディフュージョンの評価を行った。
300サンプルのテストセットでは、平均2乗誤差はピクセル空間の軌道再構成において0.02となる。
実世界の実験では、事故応答および部分閉塞を伴う探索・配置タスク間で、全体のミッション成功率が80%であることを示した。
これらの結果から, 人為的拡散計画は, 時間クリティカルな支援設定下でのUAVナビゲーションに対して, 実用的でロバストなソリューションを提供することが示された。
関連論文リスト
- Experimental validation of UAV search and detection system in real wilderness environment [0.0]
地中海カルスト環境下での無人無人UAV探索の設計と実験を行った。
UAVは、既知の確率密度と検出関数に従って、Heath equation-driven Area Cover (HEDAC) ergodic control法を用いて誘導される。
論文 参考訳(メタデータ) (2025-02-24T17:53:54Z) - Psych-Occlusion: Using Visual Psychophysics for Aerial Detection of Occluded Persons during Search and Rescue [41.03292974500013]
スモール・アンマンド・エアリアル・システムズ (SUAS) は、緊急対応 (ER) のシナリオにおいて「空の目」として機能する。
空中からの人物の効率的な検出は ミッションの成果を達成する上で 重要な役割を担います
sUAS搭載のコンピュータビジョン(CV)モデルの性能は、実生活の厳密な条件下で著しく低下する。
我々は、その人間の精度データを用いて、行動データセットであるサイコERの使用を例示し、検出モデルの損失関数を適応させる。
論文 参考訳(メタデータ) (2024-12-07T06:22:42Z) - NEUSIS: A Compositional Neuro-Symbolic Framework for Autonomous Perception, Reasoning, and Planning in Complex UAV Search Missions [41.87952703626145]
現実的なシナリオにおけるUAV探索とナビゲーションの解釈を目的とした合成ニューロシンボリックシステムであるNEUSISを提案する。
NEUSISは、ニューロシンボリックな視覚知覚、推論、接地(GRiD)を統合して生の感覚入力を処理し、環境表現のための確率論的世界モデルを維持し、効率的な経路計画のために階層的計画コンポーネント(SNaC)を使用する。
AirSimとUnreal Engineを用いた都市探索のシミュレーション実験の結果、NEUSISは成功率、検索効率において最先端(SOTA)ビジョン言語モデルとSOTA検索計画モデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-09-16T11:42:15Z) - CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - EgoNav: Egocentric Scene-aware Human Trajectory Prediction [15.346096596482857]
ウェアラブルなコラボレーティブロボットは、転倒防止支援を必要とする人や、外骨格を装着する人を助ける。
このようなロボットは、自我中心の視覚に基づいて周囲のシーンに常に適応し、着用者の自我の動きを予測する必要がある。
本研究では、身体に装着したカメラとセンサーを利用して、複雑な環境下での人間の着用者の軌道を予測した。
論文 参考訳(メタデータ) (2024-03-27T21:43:12Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。