論文の概要: Continual Learning of Object Instances
- arxiv url: http://arxiv.org/abs/2004.10862v1
- Date: Wed, 22 Apr 2020 21:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 18:32:17.253111
- Title: Continual Learning of Object Instances
- Title(参考訳): オブジェクトインスタンスの継続的な学習
- Authors: Kishan Parshotam and Mert Kilickaya
- Abstract要約: 連続学習の概念を同一対象カテゴリのインスタンスを識別するタスクに適用する手法を提案する。
私たちは特に自動車オブジェクトに焦点を合わせ、メトリック学習で車のインスタンスを区別することを漸進的に学んでいます。
- 参考スコア(独自算出の注目度): 9.175627458356654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose continual instance learning - a method that applies the concept of
continual learning to the task of distinguishing instances of the same object
category. We specifically focus on the car object, and incrementally learn to
distinguish car instances from each other with metric learning. We begin our
paper by evaluating current techniques. Establishing that catastrophic
forgetting is evident in existing methods, we then propose two remedies.
Firstly, we regularise metric learning via Normalised Cross-Entropy. Secondly,
we augment existing models with synthetic data transfer. Our extensive
experiments on three large-scale datasets, using two different architectures
for five different continual learning methods, reveal that Normalised
cross-entropy and synthetic transfer leads to less forgetting in existing
techniques.
- Abstract(参考訳): 連続学習の概念を同一のオブジェクトカテゴリのインスタンスを識別するタスクに適用する手法として,連続的なインスタンス学習を提案する。
私たちは特に自動車オブジェクトに注目し、メトリック学習で車のインスタンスを区別することを学びます。
本稿は,現在の技術を評価することから始める。
既往の手法では壊滅的な忘れが明らかであることを立証し、2つの治療法を提案する。
まず、正規化クロスエントロピーによるメトリック学習を規則化する。
次に,既存のモデルを合成データ転送により拡張する。
2つの異なるアーキテクチャを5つの連続学習法に用いた3つの大規模データセットに関する広範な実験により、正規化クロスエントロピーと合成転送が既存のテクニックを忘れることの少ない結果が得られた。
関連論文リスト
- A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - Mitigating Object Dependencies: Improving Point Cloud Self-Supervised Learning through Object Exchange [50.45953583802282]
我々は,ポイントクラウドシーン理解のための新たな自己教師型学習(SSL)戦略を導入する。
このアプローチでは、オブジェクトパターンとコンテキストキューの両方を活用して、堅牢な機能を生成します。
提案手法は既存のSSL技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-11T06:39:53Z) - Federated Unlearning via Active Forgetting [24.060724751342047]
インクリメンタルラーニングに基づく新しいフェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、近似的再学習やデータ影響推定に依存する既存の非学習手法とは異なる。
論文 参考訳(メタデータ) (2023-07-07T03:07:26Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Towards Interpretable Deep Metric Learning with Structural Matching [86.16700459215383]
より透過的な埋め込み学習のための深層解釈可能なメトリック学習(DIML)法を提案する。
本手法は,既製のバックボーンネットワークやメトリック学習手法に適用可能な,モデルに依存しない手法である。
我々は,CUB200-2011,Cars196,Stanford Online Productsの3つの大規模メトリクス学習ベンチマークで評価を行った。
論文 参考訳(メタデータ) (2021-08-12T17:59:09Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - A Survey on Contrastive Self-supervised Learning [0.0]
自己教師付き学習は、大規模なデータセットのアノテートコストを回避する能力によって人気を集めている。
コントラスト学習は近年,コンピュータビジョン,自然言語処理(NLP)などの分野において,自己指導型学習手法の主流となっている。
本稿では, コントラスト的アプローチに従う自己教師型手法について, 広範囲にわたるレビューを行う。
論文 参考訳(メタデータ) (2020-10-31T21:05:04Z) - Diversified Mutual Learning for Deep Metric Learning [42.42997713655545]
相互学習は、一般化を改善するためのアンサンブルトレーニング戦略である。
本研究では,多種多元多元学習(diversified Mutual Metric Learning)と呼ばれる,深層多元学習のための効果的な相互学習手法を提案する。
本手法は個々のモデルとアンサンブルを大幅に改善する。
論文 参考訳(メタデータ) (2020-09-09T09:00:16Z) - Metric Learning vs Classification for Disentangled Music Representation
Learning [36.74680586571013]
本稿では,メートル法学習と分類,ゆがみの関係を包括的に解明する単一の表現学習フレームワークを提案する。
分類に基づくモデルは、訓練時間、類似性検索、自動タグ付けに一般的に有利であるのに対し、深度検定学習は三重項予測により良い性能を示す。
論文 参考訳(メタデータ) (2020-08-09T13:53:12Z) - Provable Meta-Learning of Linear Representations [114.656572506859]
我々は、複数の関連するタスクから共通の機能の集合を学習し、その知識を新しい未知のタスクに転送する、という2つの課題に対処する、高速でサンプル効率のアルゴリズムを提供する。
また、これらの線形特徴を学習する際のサンプルの複雑さに関する情報理論の下限も提供する。
論文 参考訳(メタデータ) (2020-02-26T18:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。