論文の概要: Improving Few-Shot Learning with Auxiliary Self-Supervised Pretext Tasks
- arxiv url: http://arxiv.org/abs/2101.09825v1
- Date: Sun, 24 Jan 2021 23:21:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:46:16.236719
- Title: Improving Few-Shot Learning with Auxiliary Self-Supervised Pretext Tasks
- Title(参考訳): Auxiliary Self-Supervised Pretext Tasks によるFew-Shot学習の改善
- Authors: Nathaniel Simard and Guillaume Lagrange
- Abstract要約: 最近の少数ショット学習の研究は、学習された表現の質が少数ショット分類のパフォーマンスにおいて重要な役割を果たしていることを示しています。
一方,自己教師付き学習の目標は,クラスラベルを使わずにデータの有用な意味情報を復元することである。
我々は,最近の自己教師あり手法を補助タスクとして利用するマルチタスクフレームワークを用いて,両パラダイムの相補性を活用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work on few-shot learning \cite{tian2020rethinking} showed that
quality of learned representations plays an important role in few-shot
classification performance. On the other hand, the goal of self-supervised
learning is to recover useful semantic information of the data without the use
of class labels. In this work, we exploit the complementarity of both paradigms
via a multi-task framework where we leverage recent self-supervised methods as
auxiliary tasks. We found that combining multiple tasks is often beneficial,
and that solving them simultaneously can be done efficiently. Our results
suggest that self-supervised auxiliary tasks are effective data-dependent
regularizers for representation learning. Our code is available at:
\url{https://github.com/nathanielsimard/improving-fs-ssl}.
- Abstract(参考訳): マイショット学習に関する最近の研究は、マイショット分類性能において学習表現の品質が重要な役割を担っていることを示した。
一方,自己教師付き学習の目標は,クラスラベルを使わずにデータの有用な意味情報を復元することである。
本研究では,最近の自己監視手法を補助タスクとして活用するマルチタスクフレームワークを通じて,両パラダイムの相補性を活用する。
複数のタスクを組み合わせることは、しばしば有益であり、同時に解くことは効率的にできることを発見しました。
本研究では,自己監督型補助タスクが表現学習の効果的なデータ依存正規化であることを示す。
私たちのコードは、 \url{https://github.com/nathanielsimard/improving-fs-ssl} で利用可能です。
関連論文リスト
- Functional Knowledge Transfer with Self-supervised Representation
Learning [11.566644244783305]
本研究では,機能的知識伝達の方向における自己指導型表現学習の未探索ユーザビリティについて検討する。
本研究では,自己教師型学習課題と教師型学習課題の協調最適化により,機能的知識伝達を実現する。
論文 参考訳(メタデータ) (2023-03-12T21:14:59Z) - PartAL: Efficient Partial Active Learning in Multi-Task Visual Settings [57.08386016411536]
注記すべき画像だけでなく、各アクティブラーニング(AL)にアノテーションを提供するタスクのサブセットを選択する方が効果的であることを示す。
提案手法の有効性を,複数の一般的なマルチタスクデータセットに示す。
論文 参考訳(メタデータ) (2022-11-21T15:08:35Z) - Composite Learning for Robust and Effective Dense Predictions [81.2055761433725]
マルチタスク学習は、目標タスクを補助タスクと協調的に最適化することで、より優れたモデル一般化を約束する。
自己監督型(補助的)タスクと密接な予測(目標)タスクを共同でトレーニングすることで、目標タスクの性能を継続的に向上し、補助タスクのラベル付けの必要性を排除できることが判明した。
論文 参考訳(メタデータ) (2022-10-13T17:59:16Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Auxiliary Task Update Decomposition: The Good, The Bad and The Neutral [18.387162887917164]
補助的タスク勾配のきめ細かい操作を行うモデルに依存しないフレームワークを定式化する。
そこで本研究では,タスクの損失を軽減・ダメージ・回避する方向に補助的な更新を分解することを提案する。
テキストと画像の分類タスクのアウト・オブ・ディストリビューションデータを活用する場合,我々のアプローチは一貫して,強靭で広く使用されているベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-08-25T17:09:48Z) - Automated Self-Supervised Learning for Graphs [37.14382990139527]
本研究の目的は、複数のプリテキストタスクを効果的に活用する方法を検討することである。
我々は、多くの実世界のグラフ、すなわちホモフィリーの鍵となる原理を、様々な自己教師付きプレテキストタスクを効果的に探索するためのガイダンスとして利用している。
本稿では,自己教師型タスクの組み合わせを自動的に検索するAutoSSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-10T03:09:20Z) - Can Semantic Labels Assist Self-Supervised Visual Representation
Learning? [194.1681088693248]
近隣環境におけるコントラスト調整(SCAN)という新しいアルゴリズムを提案する。
一連のダウンストリームタスクにおいて、SCANは従来の完全教師付きおよび自己教師付きメソッドよりも優れたパフォーマンスを達成する。
本研究は, セマンティックラベルが自己指導的手法の補助に有用であることを明らかにする。
論文 参考訳(メタデータ) (2020-11-17T13:25:00Z) - Auxiliary Learning by Implicit Differentiation [54.92146615836611]
補助的なタスクによるニューラルネットワークのトレーニングは、関心のあるメインタスクのパフォーマンスを改善するための一般的なプラクティスである。
そこで我々は,暗黙の識別に基づく両課題を対象とした新しいフレームワークAuxiLearnを提案する。
まず、有用な補助関数が知られている場合、全ての損失を1つのコヒーレントな目的関数に組み合わせたネットワークの学習を提案する。
第二に、有用な補助タスクが知られていない場合、意味のある新しい補助タスクを生成するネットワークの学習方法について述べる。
論文 参考訳(メタデータ) (2020-06-22T19:35:07Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。