論文の概要: Unified Control Framework for Real-Time Interception and Obstacle Avoidance of Fast-Moving Objects with Diffusion Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2209.13628v2
- Date: Tue, 2 Apr 2024 23:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 23:57:15.405621
- Title: Unified Control Framework for Real-Time Interception and Obstacle Avoidance of Fast-Moving Objects with Diffusion Variational Autoencoder
- Title(参考訳): 拡散変分オートエンコーダを用いた高速移動物体のリアルタイム知覚と障害物回避のための統一制御フレームワーク
- Authors: Apan Dastider, Hao Fang, Mingjie Lin,
- Abstract要約: 動的環境におけるロボットアームによる高速移動物体のリアルタイムインターセプションは、非常に困難な課題である。
本稿では,動的オブジェクトを同時にインターセプトし,移動障害を回避することで,課題に対処する統一的な制御フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.5642257132861923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time interception of fast-moving objects by robotic arms in dynamic environments poses a formidable challenge due to the need for rapid reaction times, often within milliseconds, amidst dynamic obstacles. This paper introduces a unified control framework to address the above challenge by simultaneously intercepting dynamic objects and avoiding moving obstacles. Central to our approach is using diffusion-based variational autoencoder for motion planning to perform both object interception and obstacle avoidance. We begin by encoding the high-dimensional temporal information from streaming events into a two-dimensional latent manifold, enabling the discrimination between safe and colliding trajectories, culminating in the construction of an offline densely connected trajectory graph. Subsequently, we employ an extended Kalman filter to achieve precise real-time tracking of the moving object. Leveraging a graph-traversing strategy on the established offline dense graph, we generate encoded robotic motor control commands. Finally, we decode these commands to enable real-time motion of robotic motors, ensuring effective obstacle avoidance and high interception accuracy of fast-moving objects. Experimental validation on both computer simulations and autonomous 7-DoF robotic arms demonstrates the efficacy of our proposed framework. Results indicate the capability of the robotic manipulator to navigate around multiple obstacles of varying sizes and shapes while successfully intercepting fast-moving objects thrown from different angles by hand. Complete video demonstrations of our experiments can be found in https://sites.google.com/view/multirobotskill/home.
- Abstract(参考訳): 動的環境におけるロボットアームによる高速移動物体のリアルタイムインターセプションは、しばしば動的障害物の中でミリ秒以内の迅速な反応時間を必要とするため、非常に困難な課題となる。
本稿では、動的オブジェクトを同時にインターセプトし、移動障害物を回避することにより、上記の課題に対処する統一的な制御フレームワークを提案する。
我々のアプローチの中心は、拡散に基づく変分オートエンコーダを用いて、物体のインターセプションと障害物回避の両方を実行する。
まず、ストリーミングイベントからの高次元時間情報を2次元潜在多様体に符号化し、安全トラジェクタと衝突トラジェクタの識別を可能にし、オフラインで密結合されたトラジェクタグラフを構築する。
その後、移動物体の正確なリアルタイム追跡を実現するために拡張カルマンフィルタを用いる。
確立されたオフライン高密度グラフ上でグラフトラバース戦略を活用することで、ロボットモーター制御コマンドを符号化する。
最後に、ロボットモータのリアルタイム動作を可能にするためにこれらのコマンドをデコードし、高速移動物体の効果的な障害物回避と高いインターセプション精度を確保する。
コンピュータシミュレーションと自律型7-DoFロボットアームを用いた実験により,提案手法の有効性が示された。
その結果、ロボットマニピュレータは、異なる角度から投げられた高速移動物体を手動でインターセプトしながら、さまざまな大きさと形状の複数の障害物を回避できることが示唆された。
私たちの実験の完全なビデオデモはhttps://sites.google.com/view/multirobotskill/home.comで見ることができる。
関連論文リスト
- Deep Learning-Based Robust Multi-Object Tracking via Fusion of mmWave Radar and Camera Sensors [6.166992288822812]
複雑なトラフィックシナリオを通じて、より安全で効率的なナビゲーションを実現する上で、マルチオブジェクトトラッキングは重要な役割を果たす。
本稿では,自律走行システムにおける複数物体追跡の精度とロバスト性を高めるために,レーダデータとカメラデータを統合した新しいディープラーニング方式を提案する。
論文 参考訳(メタデータ) (2024-07-10T21:09:09Z) - Image Conductor: Precision Control for Interactive Video Synthesis [90.2353794019393]
映画製作とアニメーション制作は、しばしばカメラの遷移と物体の動きを調整するための洗練された技術を必要とする。
イメージコンダクタ(Image Conductor)は、カメラトランジションとオブジェクトの動きを正確に制御し、単一の画像からビデオアセットを生成する方法である。
論文 参考訳(メタデータ) (2024-06-21T17:55:05Z) - Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - Guided Decoding for Robot On-line Motion Generation and Adaption [44.959409835754634]
本稿では,ロボットアームに高い自由度を持つ新たな動作生成手法を提案する。
本研究では,実演として使用する擬似軌道の大規模データセットに基づいて,条件付き変分オートエンコーダに基づくトランスフォーマーアーキテクチャを訓練する。
本モデルでは, 異なる初期点と目標点からの運動をうまく生成し, 異なるロボットプラットフォームを横断する複雑なタスクをナビゲートする軌道を生成可能であることを示す。
論文 参考訳(メタデータ) (2024-03-22T14:32:27Z) - Neural Implicit Swept Volume Models for Fast Collision Detection [0.0]
本稿では,深層学習に基づく符号付き距離計算の高速化と幾何衝突チェッカーの精度保証を併用したアルゴリズムを提案する。
シミュレーションおよび実世界のロボット実験において、我々のアプローチを検証するとともに、商用ビンピッキングアプリケーションを高速化できることを実証する。
論文 参考訳(メタデータ) (2024-02-23T12:06:48Z) - TrackDiffusion: Tracklet-Conditioned Video Generation via Diffusion Models [75.20168902300166]
微粒な軌跡条件の運動制御が可能な新しい映像生成フレームワークであるTrackDiffusionを提案する。
TrackDiffusionの重要なコンポーネントは、複数のオブジェクトのフレーム間の一貫性を明確に保証するインスタンスエンハンサーである。
TrackDiffusionによって生成されたビデオシーケンスは、視覚知覚モデルのトレーニングデータとして使用できる。
論文 参考訳(メタデータ) (2023-12-01T15:24:38Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - A real-time dynamic obstacle tracking and mapping system for UAV
navigation and collision avoidance with an RGB-D camera [7.77809394151497]
RGB-Dカメラを用いたクワッドコプター障害物回避のためのリアルタイム動的障害物追跡とマッピングシステムを提案する。
本手法は,動的環境における障害物をリアルタイムに追跡・表現することができ,障害物を安全に回避することができる。
論文 参考訳(メタデータ) (2022-09-17T05:32:33Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。