論文の概要: Contrastive Learning for Cross-Domain Open World Recognition
- arxiv url: http://arxiv.org/abs/2203.09257v1
- Date: Thu, 17 Mar 2022 11:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 16:00:26.482886
- Title: Contrastive Learning for Cross-Domain Open World Recognition
- Title(参考訳): クロスドメインオープンワールド認識のためのコントラスト学習
- Authors: Francesco Cappio Borlino, Silvia Bucci, Tatiana Tommasi
- Abstract要約: 進化する能力は、知識が製造者によって注入されるものに限定されない貴重な自律エージェントにとって基本的なものである。
新しいクラスをインクリメンタルに含めるのに適した機能空間を学習し、様々な視覚領域にまたがる知識を捉えることができることを示す。
本手法は,学習エピソードごとの効果的な停止基準を付与し,新たな自己ペースしきい値設定戦略を活用する。
- 参考スコア(独自算出の注目度): 17.660958043781154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to evolve is fundamental for any valuable autonomous agent whose
knowledge cannot remain limited to that injected by the manufacturer. Consider
for example a home assistant robot: it should be able to incrementally learn
new object categories when requested, but also to recognize the same objects in
different environments (rooms) and poses (hand-held/on the floor/above
furniture), while rejecting unknown ones. Despite its importance, this scenario
has started to raise interest in the robotic community only recently and the
related research is still in its infancy, with existing experimental testbeds
but no tailored methods. With this work, we propose the first learning approach
that deals with all the previously mentioned challenges at once by exploiting a
single contrastive objective. We show how it learns a feature space perfectly
suitable to incrementally include new classes and is able to capture knowledge
which generalizes across a variety of visual domains. Our method is endowed
with a tailored effective stopping criterion for each learning episode and
exploits a novel self-paced thresholding strategy that provides the classifier
with a reliable rejection option. Both these contributions are based on the
observation of the data statistics and do not need manual tuning. An extensive
experimental analysis confirms the effectiveness of the proposed approach
establishing the new state-of-the-art. The code is available at
https://github.com/FrancescoCappio/Contrastive_Open_World.
- Abstract(参考訳): 進化する能力は、知識が製造者が注入するものに限定されない貴重な自律エージェントにとって基本的なものである。
例えば、ホームアシスタントロボットを考えると、要求された時に新しいオブジェクトカテゴリを段階的に学習できるだけでなく、異なる環境(部屋)とポーズ(床/上/上家具)で同じオブジェクトを認識でき、未知のものも拒否できる。
その重要性にもかかわらず、このシナリオはロボットコミュニティへの関心を高め始めたばかりで、関連する研究はまだ初期段階にあり、既存の実験的なテストベッドは用意されていない。
本研究では,1つの対照的な目的を生かして,先に述べたすべての課題に同時に対処する,最初の学習手法を提案する。
我々は、新しいクラスをインクリメンタルに含むのに最適な機能空間をどのように学習するかを示し、様々なビジュアルドメインにまたがる知識をキャプチャする。
本手法は,学習エピソード毎に適応した効果的な停止基準を付与し,分類器に信頼性の高い拒否オプションを提供する新しい自己ペースのしきい値戦略を活用できる。
これらの貢献はどちらもデータ統計の観察に基づいており、手動のチューニングは必要ない。
広範な実験分析により,新たな最先端技術を確立するための提案手法の有効性が確認された。
コードはhttps://github.com/francescocappio/contrastive_open_worldで入手できる。
関連論文リスト
- Class incremental learning with probability dampening and cascaded gated classifier [4.285597067389559]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - CDFSL-V: Cross-Domain Few-Shot Learning for Videos [58.37446811360741]
ビデオのアクション認識は、いくつかのラベル付き例でのみ、新しいカテゴリを認識するための効果的なアプローチである。
既存のビデオアクション認識の方法は、同じドメインからの大きなラベル付きデータセットに依存している。
本稿では,自己教師付き学習とカリキュラム学習を活用した,クロスドメインな数ショットビデオ行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T19:44:27Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Adversarial Auto-Augment with Label Preservation: A Representation
Learning Principle Guided Approach [95.74102207187545]
本研究では,事前自由な自律的データ拡張の目的が表現学習の原則から導出可能であることを示す。
そこで我々は,既存の手法にシームレスに最適化し,シームレスに統合できる目的に対して,実用的なサロゲートを提案する。
論文 参考訳(メタデータ) (2022-11-02T02:02:51Z) - Novel Class Discovery without Forgetting [72.52222295216062]
我々は NCDwF: Novel Class Discovery without Forgetting の新たな実用的問題設定を特定し,定式化する。
ラベルのないデータから新しいカテゴリのインスタンスを段階的に発見する機械学習モデルを提案する。
CIFAR-10, CIFAR-100, ImageNet-1000に基づく実験プロトコルを導入し, 知識保持と新しいクラス発見のトレードオフを測定する。
論文 参考訳(メタデータ) (2022-07-21T17:54:36Z) - Semantic Novelty Detection via Relational Reasoning [17.660958043781154]
本稿では,関係推論に基づく表現学習パラダイムを提案する。
実験の結果,この知識は様々なシナリオに直接伝達可能であることがわかった。
クローズドセット認識モデルを信頼できるオープンセットに変換するプラグイン・アンド・プレイモジュールとして利用することができる。
論文 参考訳(メタデータ) (2022-07-18T15:49:27Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - A Survey on Contrastive Self-supervised Learning [0.0]
自己教師付き学習は、大規模なデータセットのアノテートコストを回避する能力によって人気を集めている。
コントラスト学習は近年,コンピュータビジョン,自然言語処理(NLP)などの分野において,自己指導型学習手法の主流となっている。
本稿では, コントラスト的アプローチに従う自己教師型手法について, 広範囲にわたるレビューを行う。
論文 参考訳(メタデータ) (2020-10-31T21:05:04Z) - COG: Connecting New Skills to Past Experience with Offline Reinforcement
Learning [78.13740204156858]
我々は、動的プログラミングによって新しいスキルを拡張するために、事前データを再利用できることを示します。
我々は、新しいタスクを解決するために、以前のデータセットに見られるいくつかの動作をチェーンすることで、アプローチの有効性を実証する。
我々は、高次元画像観察を低レベルのロボット制御コマンドにマッピングし、エンドツーエンドでポリシーを訓練する。
論文 参考訳(メタデータ) (2020-10-27T17:57:29Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。