論文の概要: Active Class Selection for Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2307.02641v1
- Date: Wed, 5 Jul 2023 20:16:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 15:51:54.166661
- Title: Active Class Selection for Few-Shot Class-Incremental Learning
- Title(参考訳): クラスインクリメンタル学習のためのアクティブクラス選択
- Authors: Christopher McClurg, Ali Ayub, Harsh Tyagi, Sarah M. Rajtmajer, and
Alan R. Wagner
- Abstract要約: 現実世界のアプリケーションでは、ロボットはユーザーとの限られたインタラクションを通じて環境の中で継続的に学習する必要がある。
本研究では,自律型エージェントが環境において最も情報に富むオブジェクトにのみラベルを付けることで,新たなオブジェクトを継続的に学習することを可能にする新しいフレームワークを開発する。
- 参考スコア(独自算出の注目度): 14.386434861320023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For real-world applications, robots will need to continually learn in their
environments through limited interactions with their users. Toward this,
previous works in few-shot class incremental learning (FSCIL) and active class
selection (ACS) have achieved promising results but were tested in constrained
setups. Therefore, in this paper, we combine ideas from FSCIL and ACS to
develop a novel framework that can allow an autonomous agent to continually
learn new objects by asking its users to label only a few of the most
informative objects in the environment. To this end, we build on a
state-of-the-art (SOTA) FSCIL model and extend it with techniques from ACS
literature. We term this model Few-shot Incremental Active class SeleCtiOn
(FIASco). We further integrate a potential field-based navigation technique
with our model to develop a complete framework that can allow an agent to
process and reason on its sensory data through the FIASco model, navigate
towards the most informative object in the environment, gather data about the
object through its sensors and incrementally update the FIASco model.
Experimental results on a simulated agent and a real robot show the
significance of our approach for long-term real-world robotics applications.
- Abstract(参考訳): 現実世界のアプリケーションでは、ロボットはユーザーとの限られたインタラクションを通じて環境の中で継続的に学習する必要がある。
これに向けて、マイショットクラスインクリメンタルラーニング(fscil)とアクティブクラスセレクション(acs)の先行研究は有望な結果を得たが、制約付きセットアップでテストされた。
そこで本稿では,FSCIL と ACS のアイデアを組み合わせて,自律型エージェントが環境における最も情報性の高いオブジェクトにのみラベルを付けることで,新たなオブジェクトを継続的に学習することのできる,新たなフレームワークを開発する。
この目的のために、我々は最先端(SOTA)のFSCILモデルを構築し、ACS文献の技法で拡張する。
Few-shot Incremental Active class SeleCtiOn (FIASco)と呼ぶ。
さらに、フィールドベースのナビゲーション手法をモデルに統合し、エージェントがFIAScoモデルを介してその知覚データを処理し、推論し、環境で最も情報に富んだ物体に向かって移動し、その物体に関するデータをセンサを通して収集し、FIAScoモデルを漸進的に更新することのできる、完全なフレームワークを開発する。
シミュレーションエージェントと実ロボットの実験結果は,実世界のロボット応用における本手法の意義を示している。
関連論文リスト
- Toward General-Purpose Robots via Foundation Models: A Survey and
Meta-Analysis [73.89558418030418]
既存のロボットシステムは、特定のタスクのために設計され、特定のデータセットに基づいて訓練され、特定の環境にデプロイされている。
ウェブスケールで大規模で大容量の事前学習型モデルの優れたオープンセット性能とコンテンツ生成能力に感銘を受けて,我々は,基礎モデルをロボット工学に適用する方法を探究した。
論文 参考訳(メタデータ) (2023-12-14T10:02:55Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Model Share AI: An Integrated Toolkit for Collaborative Machine Learning
Model Development, Provenance Tracking, and Deployment in Python [0.0]
モデル共有AI(AIMS)は、コラボレーティブモデル開発、モデル前駆者追跡、モデルデプロイメントを合理化するように設計された、使いやすいMLOpsプラットフォームである。
AIMSは、協調的なプロジェクト空間と、見当たらない評価データに基づいてモデル提出をランク付けする標準化されたモデル評価プロセスを備えている。
AIMSでは、Scikit-Learn、Keras、PyTorch、ONNXで構築されたMLモデルを、ライブREST APIや自動生成されたWebアプリにデプロイすることができる。
論文 参考訳(メタデータ) (2023-09-27T15:24:39Z) - CBCL-PR: A Cognitively Inspired Model for Class-Incremental Learning in
Robotics [22.387008072671005]
本研究では,海馬と新皮質における概念学習理論に触発された新しい枠組みを提案する。
私たちのフレームワークは、クラスタの集合の形でオブジェクトクラスを表現し、それらをメモリに格納します。
本手法は,2つのオブジェクト分類データセットを用いて,クラス増分学習におけるSOTA(State-of-the-art)性能とFSIL(FSIL)性能を評価する。
論文 参考訳(メタデータ) (2023-07-31T23:34:27Z) - Few-Shot Continual Active Learning by a Robot [11.193504036335503]
CLエージェントがいくつかのラベル付きトレーニング例から新しいオブジェクトクラスを継続的に学習できるフレームワークを開発する。
対象分類タスクにおけるCORe-50データセットと実際のヒューマノイドロボットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-10-09T01:52:19Z) - Multimodal Generation of Novel Action Appearances for Synthetic-to-Real
Recognition of Activities of Daily Living [25.04517296731092]
外見の変化のようなドメインシフトは、アクティビティ認識モデルの現実的な応用において重要な課題である。
本稿では,既存の活動モダリティから新たなADLの出現を生成するアクティビティドメイン生成フレームワークを提案する。
本フレームワークは,人間のポーズ,体継手のヒートマップ,光フローマップを計算し,元のRGBビデオと併用してソースドメインの本質を学習する。
論文 参考訳(メタデータ) (2022-08-03T08:28:33Z) - ALBench: A Framework for Evaluating Active Learning in Object Detection [102.81795062493536]
本稿では、オブジェクト検出におけるアクティブラーニングを評価するために、ALBenchという名前のアクティブラーニングベンチマークフレームワークをコントリビュートする。
自動深層モデルトレーニングシステム上で開発されたこのALBenchフレームワークは、使いやすく、さまざまなアクティブな学習アルゴリズムと互換性があり、同じトレーニングおよびテストプロトコルを保証する。
論文 参考訳(メタデータ) (2022-07-27T07:46:23Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Deep Imitation Learning for Bimanual Robotic Manipulation [70.56142804957187]
本稿では,ロボットによるバイマニュアル操作のための深層模倣学習フレームワークを提案する。
中心となる課題は、操作スキルを異なる場所にあるオブジェクトに一般化することである。
i)マルチモーダルダイナミクスを要素運動プリミティブに分解し、(ii)リカレントグラフニューラルネットワークを用いて各プリミティブをパラメータ化して相互作用を捕捉し、(iii)プリミティブを逐次的に構成する高レベルプランナと、プリミティブダイナミクスと逆運動学制御を組み合わせた低レベルコントローラを統合することを提案する。
論文 参考訳(メタデータ) (2020-10-11T01:40:03Z) - CAZSL: Zero-Shot Regression for Pushing Models by Generalizing Through
Context [13.217582954907234]
本研究では、文脈認識モデルを構築することにより、物理世界のモデルを一般化できるディープラーニングエージェントを設計する問題について検討する。
本稿では、文脈対応ゼロショット学習(CAZSL)モデル、シームズネットワークを利用したアプローチ、埋め込み空間、文脈変数に基づく正規化を提案する。
提案した学習アルゴリズムを最近リリースされたOmnipushデータセット上でテストし、メタ学習機能のテストを可能にした。
論文 参考訳(メタデータ) (2020-03-26T01:21:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。