論文の概要: Fast Object Segmentation Learning with Kernel-based Methods for Robotics
- arxiv url: http://arxiv.org/abs/2011.12805v2
- Date: Fri, 9 Apr 2021 11:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 03:30:01.171732
- Title: Fast Object Segmentation Learning with Kernel-based Methods for Robotics
- Title(参考訳): カーネルに基づくロボットのための高速物体セグメンテーション学習
- Authors: Federico Ceola, Elisa Maiettini, Giulia Pasquale, Lorenzo Rosasco and
Lorenzo Natale
- Abstract要約: オブジェクトセグメンテーションは、把握やオブジェクト操作といったタスクを実行するロボットの視覚システムにおいて重要なコンポーネントである。
本稿では,オブジェクトセグメンテーションのための新しいアーキテクチャを提案する。これはこの問題を克服し,最先端の手法で必要とされる時間に匹敵する性能を提供する。
本手法はコンピュータビジョンとロボティクスのコミュニティで広く採用されているYCB-Videoデータセットで検証されている。
- 参考スコア(独自算出の注目度): 21.48920421574167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object segmentation is a key component in the visual system of a robot that
performs tasks like grasping and object manipulation, especially in presence of
occlusions. Like many other computer vision tasks, the adoption of deep
architectures has made available algorithms that perform this task with
remarkable performance. However, adoption of such algorithms in robotics is
hampered by the fact that training requires large amount of computing time and
it cannot be performed on-line. In this work, we propose a novel architecture
for object segmentation, that overcomes this problem and provides comparable
performance in a fraction of the time required by the state-of-the-art methods.
Our approach is based on a pre-trained Mask R-CNN, in which various layers have
been replaced with a set of classifiers and regressors that are re-trained for
a new task. We employ an efficient Kernel-based method that allows for fast
training on large scale problems. Our approach is validated on the YCB-Video
dataset which is widely adopted in the computer vision and robotics community,
demonstrating that we can achieve and even surpass performance of the
state-of-the-art, with a significant reduction (${\sim}6\times$) of the
training time. The code to reproduce the experiments is publicly available on
GitHub.
- Abstract(参考訳): オブジェクトセグメンテーション(Object segmentation)は、ロボットの視覚システムにおいて、特にオクルージョンの存在下で、把握やオブジェクト操作などのタスクを実行する重要なコンポーネントである。
他の多くのコンピュータビジョンタスクと同様に、ディープアーキテクチャの採用により、このタスクを顕著なパフォーマンスで実行するアルゴリズムが利用可能になった。
しかし、ロボット工学におけるそのようなアルゴリズムの採用は、トレーニングには大量の計算時間が必要であり、オンラインでは実行できないという事実によって妨げられている。
本稿では,この問題を克服し,最先端手法が要求する時間の一部で同等の性能を実現する,オブジェクト分割のための新しいアーキテクチャを提案する。
このアプローチは,事前学習されたマスクr-cnnに基づいており,新たなタスクのために再トレーニングされる分類器とレグレッシャのセットに,さまざまなレイヤを置き換えている。
大規模問題に対する高速トレーニングを可能にするカーネルベースの効率的な手法を採用する。
我々のアプローチは、コンピュータビジョンとロボティクスのコミュニティで広く採用されているYCB-Videoデータセットで検証され、トレーニング時間の大幅な削減({\sim}6\times$)により、最先端技術のパフォーマンスを達成し、さらに超えることができることを示した。
実験を再現するコードはgithubで公開されている。
関連論文リスト
- Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Training Neural Networks with Internal State, Unconstrained
Connectivity, and Discrete Activations [66.53734987585244]
真のインテリジェンスには、内部状態を管理するマシンラーニングモデルが必要だ。
このようなモデルのトレーニングに最も効果的なアルゴリズムは,まだ発見されていない。
このようなトレーニングアルゴリズムを2進アクティベーションと1つの重みの行列のみを持つアーキテクチャに適用する試みについて述べる。
論文 参考訳(メタデータ) (2023-12-22T01:19:08Z) - High Speed Human Action Recognition using a Photonic Reservoir Computer [1.7403133838762443]
我々は,「関心の時間」に基づく貯水池コンピュータの新しい訓練方法を提案する。
我々は,複数のビデオストリームをリアルタイムに処理できる点において,高い精度と速度でタスクを解く。
論文 参考訳(メタデータ) (2023-05-24T16:04:42Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - ALBench: A Framework for Evaluating Active Learning in Object Detection [102.81795062493536]
本稿では、オブジェクト検出におけるアクティブラーニングを評価するために、ALBenchという名前のアクティブラーニングベンチマークフレームワークをコントリビュートする。
自動深層モデルトレーニングシステム上で開発されたこのALBenchフレームワークは、使いやすく、さまざまなアクティブな学習アルゴリズムと互換性があり、同じトレーニングおよびテストプロトコルを保証する。
論文 参考訳(メタデータ) (2022-07-27T07:46:23Z) - Learn Fast, Segment Well: Fast Object Segmentation Learning on the iCub
Robot [20.813028212068424]
我々は、新しいオブジェクトや異なるドメインの存在下で、オブジェクトセグメンテーションモデルに適応できる様々な技術について研究する。
データをストリーム化するロボットアプリケーションのための高速なインスタンスセグメンテーション学習のためのパイプラインを提案する。
提案したパイプラインを2つのデータセットでベンチマークし、実際のロボットであるiCubヒューマノイドにデプロイする。
論文 参考訳(メタデータ) (2022-06-27T17:14:04Z) - Fast Region Proposal Learning for Object Detection for Robotics [21.48920421574167]
本稿では,ディープラーニング記述子の強力な表現を活用するアーキテクチャを提案する。
本稿では,タスクの領域候補生成に加えて,適用によってさらに精度が向上できることを実証する。
論文 参考訳(メタデータ) (2020-11-25T14:51:49Z) - Learning Fast and Robust Target Models for Video Object Segmentation [83.3382606349118]
ビデオオブジェクトセグメンテーション(VOS)は、ターゲットオブジェクトを定義する初期マスクがテスト時にのみ与えられるため、非常に難しい問題である。
それまでのほとんどの場合、第1フレーム上のファイン・チューン・セグメンテーション・ネットワークにアプローチし、非現実的なフレームレートとオーバーフィッティングのリスクをもたらす。
本稿では,2つのネットワークコンポーネントからなる新しいVOSアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T21:58:06Z) - Weakly Supervised Instance Segmentation by Deep Community Learning [39.18749732409763]
複数のタスクによる深層コミュニティ学習に基づく弱教師付きインスタンスセグメンテーションアルゴリズムを提案する。
我々は、統合されたディープニューラルネットワークアーキテクチャを設計することでこの問題に対処する。
提案アルゴリズムは、弱教師付き設定における最先端性能を実現する。
論文 参考訳(メタデータ) (2020-01-30T08:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。