論文の概要: Learning to Catch Piglets in Flight
- arxiv url: http://arxiv.org/abs/2001.10220v1
- Date: Tue, 28 Jan 2020 09:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:32:02.385347
- Title: Learning to Catch Piglets in Flight
- Title(参考訳): 飛行中の子豚を捕まえることを学ぶ
- Authors: Ozan \c{C}atal, Lawrence De Mol, Tim Verbelen and Bart Dhoedt
- Abstract要約: 本稿では,RGB-Dカメラとレーダの2つのセンサモードのデータを利用するクローズドループ制御システムを提案する。
対象を検出・追跡し、インターセプション点を予測するための2つのアプローチを実装・比較する。
ディープラーニングに基づく手法では、物体検出とインターセプションポイント予測の両方に人工知能を用いている。
- 参考スコア(独自算出の注目度): 4.6956495676681484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Catching objects in-flight is an outstanding challenge in robotics. In this
paper, we present a closed-loop control system fusing data from two sensor
modalities: an RGB-D camera and a radar. To develop and test our method, we
start with an easy to identify object: a stuffed Piglet. We implement and
compare two approaches to detect and track the object, and to predict the
interception point. A baseline model uses colour filtering for locating the
thrown object in the environment, while the interception point is predicted
using a least squares regression over the physical ballistic trajectory
equations. A deep learning based method uses artificial neural networks for
both object detection and interception point prediction. We show that we are
able to successfully catch Piglet in 80% of the cases with our deep learning
approach.
- Abstract(参考訳): 飛行中の物体を捕獲することはロボット工学において際立った課題である。
本稿では,RGB-Dカメラとレーダの2つのセンサモードからデータを取り出す閉ループ制御システムを提案する。
この手法の開発とテストのために、我々はまず、簡単に識別できるオブジェクト、すなわちぬいぐるみ子豚から始めます。
対象を検出・追跡し,インターセプション点を予測するための2つのアプローチを実装し,比較する。
ベースラインモデルは、投げられた物体を環境中の位置決めにカラーフィルタリングを用い、インターセプションポイントは物理的な弾道軌道方程式上の最小2乗回帰を用いて予測する。
ディープラーニングベースの手法では、オブジェクト検出とインターセプションポイント予測の両方にニューラルネットワークを使用する。
深層学習アプローチでは,80%の症例で子豚を捕えることができた。
関連論文リスト
- DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - End-to-End 3D Object Detection using LiDAR Point Cloud [0.0]
本稿では,LiDAR点雲の新たなエンコーディングを用いて,自律走行車に近いクラスの位置を推定する手法を提案する。
出力は、シーン内のオブジェクトの位置と向きを3D境界ボックスとシーンオブジェクトのラベルで予測する。
論文 参考訳(メタデータ) (2023-12-24T00:52:14Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - Deep 6-DoF Tracking of Unknown Objects for Reactive Grasping [19.43152908750153]
実用的応用は、ロボットが未知の環境と相互作用する必要がある多くの現実世界で起こります。
未知の物体追跡法, ポイントサンプリング法, 動的軌道計画法を提案することにより, 反応的把握の課題に取り組む。
従来は見つからなかった多種多様の物体をつかみ、物体の摂動やより低い把握点に対して堅牢なロボット操作システムを提案する。
論文 参考訳(メタデータ) (2021-03-09T12:51:17Z) - Lightweight Convolutional Neural Network with Gaussian-based Grasping
Representation for Robotic Grasping Detection [4.683939045230724]
現在の物体検出器は、高い精度と高速な推論速度のバランスを取るのが難しい。
ロボットつかみポーズ推定を行うための効率的かつ堅牢な完全畳み込みニューラルネットワークモデルを提案する。
ネットワークは、他の優れたアルゴリズムよりも桁違いに小さい順序です。
論文 参考訳(メタデータ) (2021-01-25T16:36:53Z) - Semi-Supervised Object Detection with Sparsely Annotated Dataset [0.27719338074999533]
畳み込みニューラルネットワークに基づく物体検出のトレーニングでは、トレーニングに有効な正の例の選択が重要な要素である。
この問題を解決するために,1)アンカーレス物体検出器,2)単一物体追跡装置を用いた半教師あり学習に基づく物体検出という2つの手法を用いた。
IoU > 0.5 の条件下で,Epic-Kitchens 2020 オブジェクト検出チャレンジのSeen セクションで第1位を獲得しながら,Unseen セクションでtextbrunner-up 性能を達成できた。
論文 参考訳(メタデータ) (2020-06-21T02:26:48Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。