論文の概要: The GRIFFIN Perception Dataset: Bridging the Gap Between Flapping-Wing
Flight and Robotic Perception
- arxiv url: http://arxiv.org/abs/2101.10371v2
- Date: Thu, 18 Feb 2021 18:31:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 18:59:44.689579
- Title: The GRIFFIN Perception Dataset: Bridging the Gap Between Flapping-Wing
Flight and Robotic Perception
- Title(参考訳): GRIFFIN知覚データセット:フラッピングウィング飛行とロボット知覚の間のギャップを埋める
- Authors: J.P. Rodr\'iguez-G\'omez, R. Tapia, J. L. Paneque, P. Grau, A. G\'omez
Egu\'iluz, J.R. Mart\'inez-de Dios and A. Ollero
- Abstract要約: 羽ばたき翼ロボットの知覚は高い振動レベルと飛行中の急な動きに苦しむ。
本稿では,鳥型羽ばたきロボットの知覚データセットを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of automatic perception systems and techniques for
bio-inspired flapping-wing robots is severely hampered by the high technical
complexity of these platforms and the installation of onboard sensors and
electronics. Besides, flapping-wing robot perception suffers from high
vibration levels and abrupt movements during flight, which cause motion blur
and strong changes in lighting conditions. This paper presents a perception
dataset for bird-scale flapping-wing robots as a tool to help alleviate the
aforementioned problems. The presented data include measurements from onboard
sensors widely used in aerial robotics and suitable to deal with the perception
challenges of flapping-wing robots, such as an event camera, a conventional
camera, and two Inertial Measurement Units (IMUs), as well as ground truth
measurements from a laser tracker or a motion capture system. A total of 21
datasets of different types of flights were collected in three different
scenarios (one indoor and two outdoor). To the best of the authors' knowledge
this is the first dataset for flapping-wing robot perception.
- Abstract(参考訳): バイオインスパイアされた羽ばたきロボットのための自動認識システムや技術の開発は、これらのプラットフォームの技術的な複雑さと搭載センサーや電子機器の設置によって著しく妨げられている。
さらに、羽ばたきロボットの知覚は、飛行中に高い振動レベルと急激な動きに悩まされ、動きのぼやけや照明条件の強い変化を引き起こす。
本稿では,鳥型羽ばたきロボットの認識データセットを,前述の問題を緩和するためのツールとして提案する。
提示されたデータには、エアロロボティクスで広く使用されているオンボードセンサーからの測定が含まれており、イベントカメラ、従来のカメラ、慣性測定ユニット(IMU)などの羽ばたきロボットの認識課題に対処するのに適しており、レーザートラッカーやモーションキャプチャーシステムからの地上の真実測定も含んでいる。
合計21の異なる種類の飛行のデータセットが3つの異なるシナリオ(屋内1つと屋外2つ)で収集された。
著者の知る限りでは、これは羽ばたきロボット知覚のための最初のデータセットである。
関連論文リスト
- RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - EchoPT: A Pretrained Transformer Architecture that Predicts 2D In-Air Sonar Images for Mobile Robotics [4.103476395113937]
本稿では,従来のセンサデータとロボットのエゴモーション情報から2次元ソナー画像を予測するための事前学習型トランスフォーマーアーキテクチャであるEchoPTを紹介する。
本研究では,EchoPTモデルの提示と評価に加えて,この予測知覚アプローチの有効性を2つのロボットタスクで実証する。
論文 参考訳(メタデータ) (2024-05-21T08:18:28Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - USTC FLICAR: A Sensors Fusion Dataset of LiDAR-Inertial-Camera for
Heavy-duty Autonomous Aerial Work Robots [13.089952067224138]
本稿では,同時ローカライゼーションとマッピングの開発を目的としたUSTC FLICARデータセットを提案する。
提案したデータセットは、典型的な自律走行センシングスイートを空中シーンに拡張する。
Segment Anything Model (SAM)に基づいて,セマンティックFLICARデータセットを生成し,セマンティックセマンティックなセマンティックセマンティックアノテーションを提供する。
論文 参考訳(メタデータ) (2023-04-04T17:45:06Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。