論文の概要: FViT-Grasp: Grasping Objects With Using Fast Vision Transformers
- arxiv url: http://arxiv.org/abs/2311.13986v1
- Date: Thu, 23 Nov 2023 13:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 23:43:48.301418
- Title: FViT-Grasp: Grasping Objects With Using Fast Vision Transformers
- Title(参考訳): FViT-Grasp:高速ビジョン変換器を用いた物体のグラッピング
- Authors: Arda Sarp Yenicesu, Berk Cicek and Ozgur S.Oguz
- Abstract要約: 我々は,ロボットが物体を操作するための最適な把握ポイントを迅速かつ正確に同定するための新しい手法を考案した。
我々のアプローチでは、視覚データを処理し、最も適切な把握位置を予測するように設計されたニューラルネットワークであるFViT(Fast Vision Transformer)を活用している。
- 参考スコア(独自算出の注目度): 6.545358538123621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study addresses the challenge of manipulation, a prominent issue in
robotics. We have devised a novel methodology for swiftly and precisely
identifying the optimal grasp point for a robot to manipulate an object. Our
approach leverages a Fast Vision Transformer (FViT), a type of neural network
designed for processing visual data and predicting the most suitable grasp
location. Demonstrating state-of-the-art performance in terms of speed while
maintaining a high level of accuracy, our method holds promise for potential
deployment in real-time robotic grasping applications. We believe that this
study provides a baseline for future research in vision-based robotic grasp
applications. Its high speed and accuracy bring researchers closer to real-life
applications.
- Abstract(参考訳): 本研究はロボット工学における課題であるマニピュレーションの課題を扱っている。
我々は,ロボットが物体を操作するための最適な把握ポイントを迅速かつ正確に同定するための新しい手法を考案した。
我々のアプローチは、視覚データを処理し、最も適切な把握位置を予測するように設計されたニューラルネットワークであるFViT(Fast Vision Transformer)を活用する。
高い精度を維持しながら, 最先端の性能を実証し, リアルタイムロボット把持アプリケーションへの展開を期待する。
この研究は、視覚ベースのロボット把持応用における将来の研究のベースラインを提供すると信じている。
その高速かつ精度は、研究者を現実の応用に近づける。
関連論文リスト
- Synthetica: Large Scale Synthetic Data for Robot Perception [21.415878105900187]
本稿では,ロバストな状態推定器を訓練するための大規模合成データ生成手法であるSyntheticaを提案する。
本稿では,ほとんどの状態推定問題のフロントエンドとして機能する重要な問題であるオブジェクト検出の課題に焦点を当てる。
レイトレーシングのデータを利用して270万の画像を生成し、高精度なリアルタイム検出変換器を訓練する。
我々は,従来のSOTAの9倍の50-100Hzの検出器を動作させながら,物体検出タスクにおける最先端性能を示す。
論文 参考訳(メタデータ) (2024-10-28T15:50:56Z) - Tiny Robotics Dataset and Benchmark for Continual Object Detection [6.4036245876073234]
本研究は,小型ロボットプラットフォームにおける物体検出システムの連続学習能力を評価するための新しいベンチマークを導入する。
i)TiROD(Tiny Robotics Object Detection)は、小さな移動ロボットを用いて収集された包括的なデータセットで、さまざまなドメインやクラスにわたるオブジェクト検出の適応性をテストするように設計されている。
論文 参考訳(メタデータ) (2024-09-24T16:21:27Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Active Exploration for Robotic Manipulation [40.39182660794481]
本稿では,スパース・リワード型ロボット操作作業における効率的な学習を可能にするモデルに基づく能動探索手法を提案する。
我々は,提案アルゴリズムをシミュレーションおよび実ロボットで評価し,スクラッチから本手法を訓練した。
論文 参考訳(メタデータ) (2022-10-23T18:07:51Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Low Dimensional State Representation Learning with Reward-shaped Priors [7.211095654886105]
本研究では,観測結果から低次元状態空間への写像の学習を目的とした手法を提案する。
このマッピングは、環境とタスクの事前知識を組み込むために形作られた損失関数を用いて教師なしの学習で学習される。
本手法は,シミュレーション環境における移動ロボットナビゲーションタスクおよび実ロボット上でのテストを行う。
論文 参考訳(メタデータ) (2020-07-29T13:00:39Z) - Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning [0.12599533416395764]
本稿では、複数の低計算NAOロボットがカメラビューにおける物体のリアルタイム検出、認識、位置決めを行うことを可能にする新しいアーキテクチャについて述べる。
オブジェクト検出と局所化のためのアルゴリズムは,複数のシナリオにおける屋内実験に基づくYOLOv3の実証的な修正である。
このアーキテクチャは、カメラフィードからニューラルネットにリアルタイムフレームを供給し、その結果を使ってロボットを誘導する効果的なエンドツーエンドパイプラインも備えている。
論文 参考訳(メタデータ) (2020-01-20T05:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。