論文の概要: Advances in MetaDL: AAAI 2021 challenge and workshop
- arxiv url: http://arxiv.org/abs/2202.01890v1
- Date: Tue, 1 Feb 2022 07:46:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 14:23:53.197989
- Title: Advances in MetaDL: AAAI 2021 challenge and workshop
- Title(参考訳): MetaDLの進歩: AAAI 2021チャレンジとワークショップ
- Authors: Adrian El Baz, Isabelle Guyon (TAU), Zhengying Liu (TAU), Jan van Rijn
(LIACS), Sebastien Treguer, Joaquin Vanschoren (TU/e)
- Abstract要約: 本稿では,課題の設計とその成果について述べるとともに,ワークショップで行ったプレゼンテーションを要約する。
この課題は、小さな画像の少人数の学習分類タスクに焦点をあてた。
勝利の方法は、人気のあるCNNバックボーンの2番目の層でトレーニングされた様々な分類器を備え、メタトレーニングデータに基づいて微調整され、ラベル付きサポートでトレーニングされ、メタテストデータのラベル付きクエリセットでテストされた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To stimulate advances in metalearning using deep learning techniques
(MetaDL), we organized in 2021 a challenge and an associated workshop. This
paper presents the design of the challenge and its results, and summarizes
presentations made at the workshop. The challenge focused on few-shot learning
classification tasks of small images. Participants' code submissions were run
in a uniform manner, under tight computational constraints. This put pressure
on solution designs to use existing architecture backbones and/or pre-trained
networks. Winning methods featured various classifiers trained on top of the
second last layer of popular CNN backbones, fined-tuned on the meta-training
data (not necessarily in an episodic manner), then trained on the labeled
support and tested on the unlabeled query sets of the meta-test data.
- Abstract(参考訳): 深層学習技術(MetaDL)を用いたメタラーニングの進歩を促進するため,2021年に課題と関連するワークショップを開催した。
本稿では,課題の設計とその成果について述べ,ワークショップで行ったプレゼンテーションを要約する。
課題は,小画像のマイナショット学習分類課題に焦点をあてた。
参加者のコードは厳密な計算制約の下で一様に実行される。
これにより、既存のアーキテクチャバックボーンやトレーニング済みネットワークを使用するソリューション設計に圧力がかかった。
優勝方法は、人気のあるcnnバックボーンの第2層上でトレーニングされた様々な分類器を特徴とし、メタトレーニングデータ(必ずしもエピソディックな方法ではない)に微調整され、ラベル付きサポートでトレーニングされ、メタテストデータのラベル付きクエリセット上でテストされた。
関連論文リスト
- Boosting Meta-Training with Base Class Information for Few-Shot Learning [35.144099160883606]
2つの代替ループからなるエンドツーエンドのトレーニングパラダイムを提案する。
外部ループでは,最終線形層のみを更新しながら,トレーニングセット全体のクロスエントロピー損失を算出する。
このトレーニングパラダイムは、迅速に収束するだけでなく、既存のベースラインよりも優れており、トレーニングセット全体からの情報とメタラーニングトレーニングパラダイムが相互に強化できることを示している。
論文 参考訳(メタデータ) (2024-03-06T05:13:23Z) - Architecture, Dataset and Model-Scale Agnostic Data-free Meta-Learning [119.70303730341938]
データフリーメタトレーニングにおけるePisode cUrriculum inversion(ECI)と、内部ループ後のinvErsion calibRation(ICFIL)を提案する。
ECIは、メタモデルのリアルタイムフィードバックに応じて、擬似エピソードの難易度を適応的に増加させる。
本稿では,ECIを用いたメタトレーニングの最適化過程を,エンド・ツー・エンド方式で近似形式として定式化する。
論文 参考訳(メタデータ) (2023-03-20T15:10:41Z) - Unsupervised Meta-Learning via Few-shot Pseudo-supervised Contrastive
Learning [72.3506897990639]
本稿では,Pseudo-supervised Contrast (PsCo) という,シンプルだが効果的なメタ学習フレームワークを提案する。
PsCoは、さまざまなドメイン内およびクロスドメインのいくつかのショット分類ベンチマークの下で、既存の教師なしメタラーニングメソッドより優れています。
論文 参考訳(メタデータ) (2023-03-02T06:10:13Z) - NeurIPS'22 Cross-Domain MetaDL competition: Design and baseline results [0.0]
我々は,NeurIPS'22で受理されたChaLearnメタラーニングシリーズにおいて,新しい課題に対する設計とベースラインの結果を示す。
このコンペティションでは、参加者が様々なドメインから引き出された"あらゆる方向"と"あらゆるショット"の問題を解決するよう挑戦する。
論文 参考訳(メタデータ) (2022-08-31T08:31:02Z) - Lessons learned from the NeurIPS 2021 MetaDL challenge: Backbone
fine-tuning without episodic meta-learning dominates for few-shot learning
image classification [40.901760230639496]
本稿では,MetaDLコンペティションシリーズの設計,データセット,最良の実験結果,NeurIPS 2021チャレンジにおける最上位の手法について述べる。
トップ参加者のソリューションがオープンソース化された。
論文 参考訳(メタデータ) (2022-06-15T10:27:23Z) - Team Cogitat at NeurIPS 2021: Benchmarks for EEG Transfer Learning
Competition [55.34407717373643]
脳波復号のための主題に依存しないディープラーニングモデルの構築は、強い共シフトの課題に直面している。
我々のアプローチは、ディープラーニングモデルの様々な層に特徴分布を明示的に整列させることです。
この方法論は、NeurIPSカンファレンスで開催されている2021年のEEG Transfer Learningコンペティションで優勝した。
論文 参考訳(メタデータ) (2022-02-01T11:11:08Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Expert Training: Task Hardness Aware Meta-Learning for Few-Shot
Classification [62.10696018098057]
そこで本研究では,訓練課題を適切に整理するためのメタトレーニング戦略を提案する。
タスクの難易度を推定する訓練手順にタスク難易度認識モジュールを設計して統合する。
miniImageNet と tieredImageNetSketch のデータセットによる実験結果から,メタラーナーは専門家のトレーニング戦略によりより良い結果が得られることが示された。
論文 参考訳(メタデータ) (2020-07-13T08:49:00Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。