論文の概要: SwarmGPT: Combining Large Language Models with Safe Motion Planning for Drone Swarm Choreography
- arxiv url: http://arxiv.org/abs/2412.08428v2
- Date: Fri, 10 Oct 2025 16:52:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 04:53:46.701108
- Title: SwarmGPT: Combining Large Language Models with Safe Motion Planning for Drone Swarm Choreography
- Title(参考訳): SwarmGPT:ドローン群コレオグラフィのための大規模言語モデルと安全な運動計画の組み合わせ
- Authors: Martin Schuck, Dinushka Orrin Dahanaggamaarachchi, Ben Sprenger, Vedant Vyas, Siqi Zhou, Angela P. Schoellig,
- Abstract要約: 我々は,ドローンの性能設計を合理化するための言語ベースの振付師であるSwarmGPTを紹介する。
我々は,最大200機のドローンによるシミュレーションと,20機のドローンによるコレオグラフィーによる実世界実験を通じて,我々のアプローチを検証する。
この研究は、ファンデーションモデルを安全クリティカルなSwarmロボティクスアプリケーションに統合するための青写真を提供する。
- 参考スコア(独自算出の注目度): 9.077008507942688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Drone swarm performances -- synchronized, expressive aerial displays set to music -- have emerged as a captivating application of modern robotics. Yet designing smooth, safe choreographies remains a complex task requiring expert knowledge. We present SwarmGPT, a language-based choreographer that leverages the reasoning power of large language models (LLMs) to streamline drone performance design. The LLM is augmented by a safety filter that ensures deployability by making minimal corrections when safety or feasibility constraints are violated. By decoupling high-level choreographic design from low-level motion planning, our system enables non-experts to iteratively refine choreographies using natural language without worrying about collisions or actuator limits. We validate our approach through simulations with swarms up to 200 drones and real-world experiments with up to 20 drones performing choreographies to diverse types of songs, demonstrating scalable, synchronized, and safe performances. Beyond entertainment, this work offers a blueprint for integrating foundation models into safety-critical swarm robotics applications.
- Abstract(参考訳): ドローンの群れのパフォーマンスは、現代ロボット工学の魅惑的な応用として現れてきた。
しかし、スムーズで安全な振付を設計することは、専門家の知識を必要とする複雑な作業である。
我々は,大規模言語モデル(LLM)の推論能力を利用して,ドローンの性能設計を効率化する言語ベースの振付師SwarmGPTを提案する。
LLMは安全フィルタによって強化され、安全や実現可能性の制約が違反した場合に最小限の修正を行うことで、デプロイ性を確保する。
低レベルな動き計画から高レベルな振付設計を分離することにより、非専門家が衝突やアクチュエータ制限を気にすることなく、自然言語を用いて反復的に振付を洗練できる。
当社のアプローチは、最大200台のドローンによるシミュレーションと、最大20台のドローンによる実世界の実験を通じて、さまざまな種類の曲の振り付けを行い、スケーラブルで同期化され、安全なパフォーマンスを示すことで検証します。
エンターテイメント以外にも、この研究は、ファンデーションモデルを安全クリティカルなSwarmロボティクスアプリケーションに統合するための青写真を提供している。
関連論文リスト
- ChoreoMuse: Robust Music-to-Dance Video Generation with Style Transfer and Beat-Adherent Motion [10.21851621470535]
SMPLフォーマットパラメータと変分バージョンを音楽とビデオ生成の仲介として使用する拡散ベースのフレームワークであるChoreoMuseを紹介する。
ChoreoMuseは、さまざまな音楽ジャンルと個々のダンサー特性にまたがって、スタイルコントロール可能な、高忠実なダンスビデオ生成をサポートする。
提案手法では、新しい音楽エンコーダであるMotionTuneを用いて、音声から動きの手がかりを捕捉し、生成した振付が入力された音楽のビートや表現性に密接に従うことを保証する。
論文 参考訳(メタデータ) (2025-07-26T07:17:50Z) - GCDance: Genre-Controlled 3D Full Body Dance Generation Driven By Music [22.352036716156967]
GCDanceは、音楽とテキストの両方のプロンプトに条件付きジャンル固有のダンスモーションを生成するための分類器なし拡散フレームワークである。
提案手法は,高レベルな事前学習音楽基礎モデルと手作りのマルチグラニュラリティ特徴融合機能を組み合わせることで,音楽の特徴を抽出する。
論文 参考訳(メタデータ) (2025-02-25T15:53:18Z) - Lodge++: High-quality and Long Dance Generation with Vivid Choreography Patterns [48.54956784928394]
Lodge++は、高品質で、超長い、鮮やかなダンスを生成するためのコレオグラフィーフレームワークである。
計算効率の課題に対処するため、Lodge++では、粗いダンスから罰金までのダンスを生成するための2段階の戦略を採用している。
Lodge++は,様々なダンスジャンルに適した超長いダンスを高速に生成できることを示す広範な実験によって検証されている。
論文 参考訳(メタデータ) (2024-10-27T09:32:35Z) - Image Conductor: Precision Control for Interactive Video Synthesis [90.2353794019393]
映画製作とアニメーション制作は、しばしばカメラの遷移と物体の動きを調整するための洗練された技術を必要とする。
イメージコンダクタ(Image Conductor)は、カメラトランジションとオブジェクトの動きを正確に制御し、単一の画像からビデオアセットを生成する方法である。
論文 参考訳(メタデータ) (2024-06-21T17:55:05Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - Harmonious Group Choreography with Trajectory-Controllable Diffusion [28.82215057058883]
Trajectory-Controllable Diffusion (TCDiff) は、重複しない軌道を利用してコヒーレントなダンスの動きを促進する新しい手法である。
ダンサーの衝突に対処するために,音楽に基づいて複数のダンサーの軌道を生成できるダンス・ビート・ナビゲータを導入する。
フレキシブルなフットワークを実現するために,隣接するフレームからの軌道変位を利用したフットワークアダプタを提案する。
論文 参考訳(メタデータ) (2024-03-10T12:11:34Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。