論文の概要: F-SIOL-310: A Robotic Dataset and Benchmark for Few-Shot Incremental
Object Learning
- arxiv url: http://arxiv.org/abs/2103.12242v1
- Date: Tue, 23 Mar 2021 00:25:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 02:55:13.794418
- Title: F-SIOL-310: A Robotic Dataset and Benchmark for Few-Shot Incremental
Object Learning
- Title(参考訳): F-SIOL-310:Few-Shot Incremental Object Learningのためのロボットデータセットとベンチマーク
- Authors: Ali Ayub, Alan R. Wagner
- Abstract要約: 本稿では,F-SIOL-310(Few-Shot Incremental Object Learning)を用いて,ロボットビジョンのためのインクリメンタルな物体学習機能をテストする。
また,F-SIOL-310における8つのインクリメンタル学習アルゴリズムのベンチマークと評価を行い,今後の比較を行った。
- 参考スコア(独自算出の注目度): 9.89901717499058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has achieved remarkable success in object recognition tasks
through the availability of large scale datasets like ImageNet. However, deep
learning systems suffer from catastrophic forgetting when learning
incrementally without replaying old data. For real-world applications, robots
also need to incrementally learn new objects. Further, since robots have
limited human assistance available, they must learn from only a few examples.
However, very few object recognition datasets and benchmarks exist to test
incremental learning capability for robotic vision. Further, there is no
dataset or benchmark specifically designed for incremental object learning from
a few examples. To fill this gap, we present a new dataset termed F-SIOL-310
(Few-Shot Incremental Object Learning) which is specifically captured for
testing few-shot incremental object learning capability for robotic vision. We
also provide benchmarks and evaluations of 8 incremental learning algorithms on
F-SIOL-310 for future comparisons. Our results demonstrate that the few-shot
incremental object learning problem for robotic vision is far from being
solved.
- Abstract(参考訳): ディープラーニングは、imagenetのような大規模データセットを利用可能にすることで、オブジェクト認識タスクで著しく成功した。
しかし、ディープラーニングシステムは、古いデータを再生せずにインクリメンタルに学習するときに壊滅的な忘れに苦しむ。
現実世界のアプリケーションでは、ロボットは新しいオブジェクトを漸進的に学習する必要がある。
さらに、ロボットは人的支援が限られているため、いくつかの例から学ぶ必要がある。
しかし、ロボットビジョンのインクリメンタル学習能力をテストするために、オブジェクト認識データセットやベンチマークはごくわずかである。
さらに、いくつかの例からインクリメンタルなオブジェクト学習用に特別に設計されたデータセットやベンチマークはありません。
このギャップを埋めるために,ロボットビジョンのためのマイナショットインクリメンタルオブジェクト学習機能をテストするために,f-siol-310(few-shot incremental object learning)と呼ばれる新しいデータセットを提案する。
また,F-SIOL-310における8つのインクリメンタル学習アルゴリズムのベンチマークと評価を行った。
以上の結果から,ロボットビジョンにおけるインクリメンタルな物体学習問題の解決には程遠いことが示唆された。
関連論文リスト
- Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Lifelong Ensemble Learning based on Multiple Representations for
Few-Shot Object Recognition [6.282068591820947]
本稿では,複数表現に基づく一生涯のアンサンブル学習手法を提案する。
生涯学習を容易にするため、各アプローチは、オブジェクト情報を即座に保存して検索するメモリユニットを備える。
提案手法の有効性を,オフラインおよびオープンエンドシナリオで評価するために,幅広い実験を行った。
論文 参考訳(メタデータ) (2022-05-04T10:29:10Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - ORBIT: A Real-World Few-Shot Dataset for Teachable Object Recognition [21.594641488685376]
我々は,視覚障害者のための教示可能な物体認識装置を実世界に適用したorbitデータセットとベンチマークを提案する。
データセットには、携帯電話で盲目/低視野の人が記録した486個のオブジェクトの3,822本のビデオが含まれている。
ベンチマークは現実的な、非常に挑戦的な認識問題を反映し、少数のショット、高変動条件に堅牢性の研究を推進するための豊富な遊び場を提供します。
論文 参考訳(メタデータ) (2021-04-08T15:32:01Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z) - An Overview of Deep Learning Architectures in Few-Shot Learning Domain [0.0]
Few-Shot Learning(ワンショットラーニング、Few-Shot Learning)は、機械学習のサブフィールドであり、少ないデータで望ましい目的を学習できるモデルを作成することを目的としている。
我々は、いくつかのショットラーニングに対するよく知られたディープラーニングベースのアプローチをレビューした。
論文 参考訳(メタデータ) (2020-08-12T06:58:45Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Tell me what this is: Few-Shot Incremental Object Learning by a Robot [22.387008072671005]
本稿では,ロボットが異なる対象カテゴリを認識できるように,段階的に学習するシステムを提案する。
論文は、最近開発された最先端の手法を用いて、オブジェクトを数発インクリメンタルに学習する。
論文 参考訳(メタデータ) (2020-07-15T04:42:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。