論文の概要: Self-Supervised Features Improve Open-World Learning
- arxiv url: http://arxiv.org/abs/2102.07848v1
- Date: Mon, 15 Feb 2021 21:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:15:54.934075
- Title: Self-Supervised Features Improve Open-World Learning
- Title(参考訳): 自己監督機能によるオープンワールド学習の改善
- Authors: Akshay Raj Dhamija, Touqeer Ahmad, Jonathan Schwan, Mohsen Jafarzadeh,
Chunchun Li, Terrance E. Boult
- Abstract要約: 本稿では,インクリメンタル学習,アウトオブディストリビューション検出,オープンワールド学習を組み合わせた統一オープンワールドフレームワークを提案する。
教師なしの特徴表現の下では、未知をラベル外空間または分布外検出のいずれかに分類する。
私たちのパイプラインのインクリメンタルな学習コンポーネントは、imagenet-100プロトコルの最先端と比較して実行するゼロ例のオンラインモデルです。
- 参考スコア(独自算出の注目度): 13.880789191591088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is a position paper that addresses the problem of Open-World learning
while proposing for the underlying feature representation to be learnt using
self-supervision. We also present an unifying open-world framework combining
three individual research dimensions which have been explored independently \ie
Incremental Learning, Out-of-Distribution detection and Open-World learning. We
observe that the supervised feature representations are limited and degenerate
for the Open-World setting and unsupervised feature representation is native to
each of these three problem domains. Under an unsupervised feature
representation, we categorize the problem of detecting unknowns as either
Out-of-Label-space or Out-of-Distribution detection, depending on the data used
during system training versus system testing. The incremental learning
component of our pipeline is a zero-exemplar online model which performs
comparatively against state-of-the-art on ImageNet-100 protocol and does not
require any back-propagation or retraining of the underlying deep-network. It
further outperforms the current state-of-the-art by simply using the same
number of exemplars as its counterparts. To evaluate our approach for
Open-World learning, we propose a new comprehensive protocol and evaluate its
performance in both Out-of-Label and Out-of-Distribution settings for each
incremental stage. We also demonstrate the adaptability of our approach by
showing how it can work as a plug-in with any of the recently proposed
self-supervised feature representation methods.
- Abstract(参考訳): 本論文は,オープンワールド学習の問題に対処しつつ,その基盤となる特徴表現を自己スーパービジョンを用いて学習することを提案する。
また,単発的学習,分散検出,オープンワールド学習の3つの個別研究次元を組み合わせた統一的なオープンワールドフレームワークを提案する。
オープンワールド設定において,教師付き特徴表現は限定的かつ退化的であり,教師なし特徴表現はこれらの3つの問題領域のそれぞれに固有のものである。
教師なし特徴表現では、システムトレーニングとシステムテストで使用されるデータに応じて、未知をラベル外空間または分散外検出として検出する問題を分類する。
パイプラインの漸進的な学習コンポーネントは、ImageNet-100プロトコルの最先端に対して相対的に動作し、基盤となるディープネットワークのバックプロパゲーションや再トレーニングは不要であるゼロのオンラインモデルである。
それは単に同等の例の同じ数を使用することによって現在の最先端の状態を更に上回ります。
オープンワールド学習に対する我々のアプローチを評価するため、我々は新しい包括的プロトコルを提案し、段階的な段階ごとにアウト・オブ・ラベルとアウト・オブ・ディストリビューションの両方でその性能を評価する。
また,最近提案された自己監督型特徴表現手法のいずれに対しても,プラグインとして機能することを示すことにより,アプローチの適応性を示す。
関連論文リスト
- Uniting contrastive and generative learning for event sequences models [51.547576949425604]
本研究では,2つの自己指導型学習手法 – 例えば,コントラスト学習と,潜在空間におけるマスクイベントの復元に基づく生成的アプローチ – の統合について検討する。
いくつかの公開データセットで行った実験は、シーケンス分類と次点型予測に焦点を合わせ、統合された手法が個々の手法と比較して優れた性能を達成することを示した。
論文 参考訳(メタデータ) (2024-08-19T13:47:17Z) - LoDisc: Learning Global-Local Discriminative Features for
Self-Supervised Fine-Grained Visual Recognition [18.442966979622717]
本稿では,微妙な局所的きめ細かい特徴学習をグローバルな自己教師付きコントラスト学習に取り入れる。
局所的識別(LoDisc)と呼ばれる新しいプリテキストタスクは、局所的な中心領域に対する自己教師付きモデルの焦点を明示的に監督するために提案される。
そこで本稿では, 局所識別課題が重要な地域において, きめ細かな手掛かりを効果的に強化し, 画像のきめ細かな特徴表現をさらに洗練させることを実証する。
論文 参考訳(メタデータ) (2024-03-06T21:36:38Z) - Towards Unsupervised Representation Learning: Learning, Evaluating and
Transferring Visual Representations [1.8130068086063336]
我々は3つの視点から教師なし(視覚的)表現学習の分野に貢献する。
我々は、教師なし、バックプロパゲーションのない畳み込み自己組織型ニューラルネットワーク(CSNN)を設計する。
我々は、プリテキストとターゲットオブジェクトに依存しないメトリクスを定義するために、広く使われている(非)線形評価プロトコルの上に構築する。
CARLANEは,2次元車線検出のための最初の3方向sim-to-realドメイン適応ベンチマークであり,自己教師付き学習に基づく手法である。
論文 参考訳(メタデータ) (2023-11-30T15:57:55Z) - A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - Deepfake Detection via Joint Unsupervised Reconstruction and Supervised
Classification [25.84902508816679]
本稿では,再建作業と分類作業を同時に行うディープフェイク検出手法を提案する。
この方法は、あるタスクによって学習された情報を他のタスクと共有する。
提案手法は,一般的に使用されている3つのデータセットに対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-11-24T05:44:26Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Crowdsourcing Learning as Domain Adaptation: A Case Study on Named
Entity Recognition [19.379850806513232]
この作業では、個々のアノテーションに関して、すべてのクラウドソースアノテーションをゴールドスタンダードとして扱う点が異なる。
クラウドソーシングはドメイン適応と非常によく似ており,近年のクロスドメイン手法の進歩は,クラウドソーシングにほぼ直接適用可能である。
本研究は,クラウドソーシングの非教師的および教師的双方の学習について検討し,小規模のエキスパートアノテーションが利用できないか,あるいは利用できないことを仮定する。
論文 参考訳(メタデータ) (2021-05-31T14:11:08Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。