論文の概要: Position-Based Flocking for Persistent Alignment without Velocity Sensing
- arxiv url: http://arxiv.org/abs/2602.22154v1
- Date: Wed, 25 Feb 2026 18:01:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.717886
- Title: Position-Based Flocking for Persistent Alignment without Velocity Sensing
- Title(参考訳): 速度センサレス永久アライメントのための位置ベースロック
- Authors: Hossein B. Jond, Veli Bakırcıoğlu, Logan E. Beaver, Nejat Tükenmez, Adel Akbarimajd, Martin Saska,
- Abstract要約: 鳥の群れや魚の学校における協調的な集団運動は、密集した群れロボットのためのアルゴリズムを刺激する。
本稿では,速度センサを使わずに持続的な速度アライメントを実現する位置ベースフラッキングモデルを提案する。
- 参考スコア(独自算出の注目度): 5.932803277485071
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coordinated collective motion in bird flocks and fish schools inspires algorithms for cohesive swarm robotics. This paper presents a position-based flocking model that achieves persistent velocity alignment without velocity sensing. By approximating relative velocity differences from changes between current and initial relative positions and incorporating a time- and density-dependent alignment gain with a non-zero minimum threshold to maintain persistent alignment, the model sustains coherent collective motion over extended periods. Simulations with a collective of 50 agents demonstrate that the position-based flocking model attains faster and more sustained directional alignment and results in more compact formations than a velocity-alignment-based baseline. This position-based flocking model is particularly well-suited for real-world robotic swarms, where velocity measurements are unreliable, noisy, or unavailable. Experimental results using a team of nine real wheeled mobile robots are also presented.
- Abstract(参考訳): 鳥の群れや魚の学校における協調的な集団運動は、密集した群れロボットのためのアルゴリズムを刺激する。
本稿では,速度センサを使わずに持続的な速度アライメントを実現する位置ベースフラッキングモデルを提案する。
このモデルでは、電流と初期相対位置の変化から相対速度差を近似し、時間と密度に依存しないアライメントゲインを非ゼロの最小閾値に組み込むことで、持続的なアライメントを維持することにより、長い期間にわたってコヒーレントな集団運動を維持する。
50個のエージェントからなるシミュレーションにより、位置ベースのフラッキングモデルがより高速でより持続的な方向アライメントを実現し、速度アライメントベースのベースラインよりもよりコンパクトな形成をもたらすことを示した。
この位置に基づく群れモデルは、特に現実のロボット群には適しており、速度測定は信頼性、ノイズ、あるいは利用できない。
9台の実輪移動ロボットを用いた実験結果も提示した。
関連論文リスト
- When Rolling Gets Weird: A Curved-Link Tensegrity Robot for Non-Intuitive Behavior [0.6372261626436676]
本研究では,半円形で湾曲した張力ロボットによる解を提案する。
このロボットは、効率的なローリングロコモーションと制御された安定性のバランスを保ち、アークエンドポイントにおける不連続によって実現される。
予備的な衝撃試験では、引張構造の固有の衝撃吸収能力と適合性を強調している。
論文 参考訳(メタデータ) (2026-03-17T13:30:33Z) - From Black Hole to Galaxy: Neural Operator: Framework for Accretion and Feedback Dynamics [70.27068115318681]
ニューラルベースの「サブグリッドブラックホール」を導入し、小さな局所力学を学習し、直接シミュレーションに組み込む。
微細な進化の大きなスピードアップにより、我々は、降着駆動のフィードバックで固有の変動を捉え、中心ブラックホールと銀河スケールのガスの動的結合を可能にした。
論文 参考訳(メタデータ) (2025-12-01T11:47:49Z) - Radar and Event Camera Fusion for Agile Robot Ego-Motion Estimation [20.459131058788568]
ロボットの移動速度を積極的に推定するためのIMUフリー・機能連想フリーフレームワークを提案する。
瞬時生イベントとドップラー計測を用いて、回転速度と翻訳速度を直接導出する。
本研究では,時間と事象を併用した連続時間状態空間モデルを提案し,よりスムーズな方法でエゴ運動速度を推定する。
論文 参考訳(メタデータ) (2025-06-23T09:27:22Z) - Learning Velocity and Acceleration: Self-Supervised Motion Consistency for Pedestrian Trajectory Prediction [16.532357621144342]
本稿では,自己監督型歩行者軌道予測フレームワークを提案する。
我々は速度と加速度情報を利用して位置予測を強化する。
ETH-UCYとStanford Droneのデータセットについて実験を行った。
論文 参考訳(メタデータ) (2025-03-31T16:17:45Z) - Robust Collaborative Perception without External Localization and Clock Devices [52.32342059286222]
複数のエージェントをまたいだ一貫した空間的時間的調整は、協調的な知覚の基礎である。
従来の手法は、ローカライゼーションとクロック信号を提供するために外部デバイスに依存している。
本稿では,様々なエージェントの知覚データに内在する幾何学的パターンを認識して整列する手法を提案する。
論文 参考訳(メタデータ) (2024-05-05T15:20:36Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - Tight Fusion of Events and Inertial Measurements for Direct Velocity
Estimation [20.002238735553792]
本研究では,通常のカメラの代わりに動的視覚センサを用いて,一階キネマティクスのレベルで直接視覚-慣性融合を行う新しい手法を提案する。
本研究では, 短時間で高ダイナミックな状況下での速度推定がどのように得られるかを示す。
シミュレーションデータと実データの両方の実験により、提案された密接な事象-慣性融合が連続的かつ信頼性の高い速度推定に繋がることを示した。
論文 参考訳(メタデータ) (2024-01-17T15:56:57Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。