論文の概要: Similarity of Classification Tasks
- arxiv url: http://arxiv.org/abs/2101.11201v1
- Date: Wed, 27 Jan 2021 04:37:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 00:22:30.698763
- Title: Similarity of Classification Tasks
- Title(参考訳): 分類タスクの類似性
- Authors: Cuong Nguyen, Thanh-Toan Do, Gustavo Carneiro
- Abstract要約: 本稿では,メタ学習の性能を最適化し,よりよく理解するために,タスク類似性を解析するための生成的アプローチを提案する。
提案手法は,2つの数ショット分類ベンチマークにおいてメタラーニングアルゴリズムの洞察に富んだ評価を行うことができることを示す。
- 参考スコア(独自算出の注目度): 46.78404360210806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in meta-learning has led to remarkable performances on
several few-shot learning benchmarks. However, such success often ignores the
similarity between training and testing tasks, resulting in a potential bias
evaluation. We, therefore, propose a generative approach based on a variant of
Latent Dirichlet Allocation to analyse task similarity to optimise and better
understand the performance of meta-learning. We demonstrate that the proposed
method can provide an insightful evaluation for meta-learning algorithms on two
few-shot classification benchmarks that matches common intuition: the more
similar the higher performance. Based on this similarity measure, we propose a
task-selection strategy for meta-learning and show that it can produce more
accurate classification results than methods that randomly select training
tasks.
- Abstract(参考訳): メタラーニングの最近の進歩は、いくつかのショットラーニングベンチマークで顕著なパフォーマンスをもたらした。
しかしながら、そのような成功はしばしばトレーニングとテストタスクの類似性を無視し、潜在的なバイアス評価をもたらす。
そこで我々は,タスクの類似性を分析し,メタラーニングの性能をよりよく理解するために,潜在ディリクレ割り当ての変種に基づく生成手法を提案する。
提案手法は,通常の直感にマッチする2つの数ショット分類ベンチマークにおいて,メタ学習アルゴリズムの洞察に富んだ評価を行うことができることを示す。
この類似性尺度に基づいて,メタラーニングのためのタスク選択戦略を提案し,学習タスクをランダムに選択する手法よりも正確な分類結果が得られることを示す。
関連論文リスト
- Adaptive Meta-learner via Gradient Similarity for Few-shot Text
Classification [11.035878821365149]
本稿では, モデル一般化能力の向上を図るため, 適応型メタラーナをグラディエント類似性(AMGS)を介して提案する。
いくつかのベンチマークによる実験結果から,提案したAMGSは連続的にテキスト分類性能を向上することが示された。
論文 参考訳(メタデータ) (2022-09-10T16:14:53Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - A Representation Learning Perspective on the Importance of
Train-Validation Splitting in Meta-Learning [14.720411598827365]
各タスクからのデータを、メタトレーニング中にトレインとバリデーションセットに分割する。
列車価分割は,表現性を損なうことなく,学習した表現を低ランクにすることを促すと論じる。
サンプル効率は低ランク性から恩恵を受けるため、分割戦略は見当たらないテストタスクを解決するのに非常に少数のサンプルを必要とする。
論文 参考訳(メタデータ) (2021-06-29T17:59:33Z) - Lessons from Chasing Few-Shot Learning Benchmarks: Rethinking the
Evaluation of Meta-Learning Methods [9.821362920940631]
メタラーニングのための簡単なベースライン、FIX-MLを紹介します。
メタラーニングの2つの可能性を探る:(i)トレーニングセット(in-distriion)を生成する同じタスク分布に一般化する手法を開発する、(ii)新しい未確認タスク分布(out-of-distriion)に一般化する手法を開発する。
本研究は,この領域の進歩を推論するためには,メタラーニングの目標を明確に説明し,より適切な評価戦略を開発する必要があることを強調した。
論文 参考訳(メタデータ) (2021-02-23T05:34:30Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。