論文の概要: CL2R: Compatible Lifelong Learning Representations
- arxiv url: http://arxiv.org/abs/2211.09032v1
- Date: Wed, 16 Nov 2022 16:41:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 14:29:59.157445
- Title: CL2R: Compatible Lifelong Learning Representations
- Title(参考訳): CL2R: 互換性のある生涯学習表現
- Authors: Niccolo Biondi, Federico Pernici, Matteo Bruni, Daniele Mugnai, and
Alberto Del Bimbo
- Abstract要約: 本稿では, 生涯学習表現の問題に対して, 自然知性を部分的に模倣する手法を提案する。
我々は、互換性を達成するために特徴表現が保持される性質として、定常性を識別する。
定常性のため、学習した特徴の統計的性質は時間とともに変化せず、以前に学習した特徴と相互運用可能である。
- 参考スコア(独自算出の注目度): 17.89659447827702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a method to partially mimic natural intelligence
for the problem of lifelong learning representations that are compatible. We
take the perspective of a learning agent that is interested in recognizing
object instances in an open dynamic universe in a way in which any update to
its internal feature representation does not render the features in the gallery
unusable for visual search. We refer to this learning problem as Compatible
Lifelong Learning Representations (CL2R) as it considers compatible
representation learning within the lifelong learning paradigm. We identify
stationarity as the property that the feature representation is required to
hold to achieve compatibility and propose a novel training procedure that
encourages local and global stationarity on the learned representation. Due to
stationarity, the statistical properties of the learned features do not change
over time, making them interoperable with previously learned features.
Extensive experiments on standard benchmark datasets show that our CL2R
training procedure outperforms alternative baselines and state-of-the-art
methods. We also provide novel metrics to specifically evaluate compatible
representation learning under catastrophic forgetting in various sequential
learning tasks. Code at
https://github.com/NiccoBiondi/CompatibleLifelongRepresentation.
- Abstract(参考訳): 本稿では,両立する生涯学習表現問題に対して,自然知能を部分的に模倣する手法を提案する。
オープンな動的宇宙におけるオブジェクトのインスタンス認識に関心のある学習エージェントの視点を、内部の特徴表現の更新がギャラリーの機能を視覚検索に使用できないような方法で捉えている。
我々は、この学習問題を、生涯学習パラダイムにおける互換性のある表現学習を考えるものとして、生涯学習表現(cl2r)と呼ぶ。
我々は,互換性を実現するために特徴表現が保持する必要がある性質として定常性を特定し,学習表現の局所的およびグローバル的定常性を促進する新しい訓練手順を提案する。
定常性のため、学習した特徴の統計的性質は時間とともに変化せず、以前に学習した特徴と相互運用可能である。
標準ベンチマークデータセットに関する広範な実験は、cl2rトレーニング手順が代替ベースラインや最先端メソッドよりも優れていることを示している。
また,様々な逐次学習タスクにおいて,破滅的な放棄下での適合表現学習を具体的に評価するための新しい指標を提供する。
コードネームはhttps://github.com/NiccoBiondi/CompatibleLifelongRepresentation。
関連論文リスト
- Dual Feature Augmentation Network for Generalized Zero-shot Learning [14.410978100610489]
ゼロショット学習 (ZSL) は,見知らぬクラスから知識を伝達することによって,サンプルを訓練せずに新しいクラスを推論することを目的としている。
ZSLの既存の埋め込みベースのアプローチは、画像上の属性を見つけるために注意機構を用いるのが一般的である。
本稿では,2つの機能拡張モジュールからなる新しいDual Feature Augmentation Network (DFAN)を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:37:52Z) - Semantically Consistent Multi-view Representation Learning [11.145085584637744]
SCMRL(Semantically Consistent Multi-view Representation Learning)を提案する。
SCMRLは、基礎となる多視点セマンティックコンセンサス情報を抽出し、その情報を利用して、統合された特徴表現学習を導く。
いくつかの最先端のアルゴリズムと比較して、広範な実験はその優位性を示している。
論文 参考訳(メタデータ) (2023-03-08T04:27:46Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Learning Invariant Visual Representations for Compositional Zero-Shot
Learning [30.472541551048508]
合成ゼロショット学習 (CZSL) は,目に見える対象の合成から学習した知識を用いて,新しい構成を認識することを目的としている。
本稿では,異なる領域を表現レベルと勾配レベルで整列させる不変な特徴学習フレームワークを提案する。
2つのCZSLベンチマーク実験により,提案手法が従来の最先端技術よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-06-01T11:33:33Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - CoReS: Compatible Representations via Stationarity [20.607894099896214]
ビジュアルサーチシステムでは、互換性のある機能により、古い機能と新しい機能を直接比較することができ、時間とともに相互に使用することができる。
従来学習されていた表現とテキスト互換の表現を学習するための新しい訓練手法であるCoReSを提案する。
トレーニングセットの更新を複数行う場合,我々のトレーニング手順が現在の技術よりも優れており,特に有効であることを示す。
論文 参考訳(メタデータ) (2021-11-15T09:35:54Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Curious Representation Learning for Embodied Intelligence [81.21764276106924]
近年,自己指導型表現学習は顕著な成功を収めている。
しかし、真にインテリジェントなエージェントを構築するためには、環境から学習できる表現学習アルゴリズムを構築する必要がある。
本稿では,強化学習方針と視覚的表現モデルを同時に学習する,好奇心をそそる表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:59:20Z) - PsiPhi-Learning: Reinforcement Learning with Demonstrations using
Successor Features and Inverse Temporal Difference Learning [102.36450942613091]
時間差学習(ITD)と呼ばれる逆強化学習アルゴリズムを提案する。
Psi Phi$-learningと呼ばれるデモで強化学習のための新しいアルゴリズムに到達し、オンライン環境の相互作用から学習とITDをシームレスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-02-24T21:12:09Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。