論文の概要: Task-Level Contrastiveness for Cross-Domain Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2510.03509v1
- Date: Fri, 03 Oct 2025 20:49:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.082114
- Title: Task-Level Contrastiveness for Cross-Domain Few-Shot Learning
- Title(参考訳): クロスドメインFew-Shot学習におけるタスクレベルコントラスト性
- Authors: Kristi Topollai, Anna Choromanska,
- Abstract要約: 本稿では,既存の手法の課題に対処する新しい手法であるタスクレベルのコントラッシブネスの概念を紹介する。
提案手法は軽量であり,既存の数ショット/メタ学習アルゴリズムに容易に組み込むことができる。
我々はMetaDatasetベンチマークで異なる実験を行い,提案手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 10.325245543844245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot classification and meta-learning methods typically struggle to generalize across diverse domains, as most approaches focus on a single dataset, failing to transfer knowledge across various seen and unseen domains. Existing solutions often suffer from low accuracy, high computational costs, and rely on restrictive assumptions. In this paper, we introduce the notion of task-level contrastiveness, a novel approach designed to address issues of existing methods. We start by introducing simple ways to define task augmentations, and thereafter define a task-level contrastive loss that encourages unsupervised clustering of task representations. Our method is lightweight and can be easily integrated within existing few-shot/meta-learning algorithms while providing significant benefits. Crucially, it leads to improved generalization and computational efficiency without requiring prior knowledge of task domains. We demonstrate the effectiveness of our approach through different experiments on the MetaDataset benchmark, where it achieves superior performance without additional complexity.
- Abstract(参考訳): 分類とメタラーニングの手法は一般的に、さまざまなドメインをまたがって一般化するのに苦労するが、ほとんどのアプローチは単一のデータセットに焦点を合わせており、さまざまな目に見えないドメインや未知のドメインに知識を伝達することができない。
既存の解は、しばしば低い精度、高い計算コストに悩まされ、制限的な仮定に依存する。
本稿では,既存の手法の課題に対処する新しい手法であるタスクレベルのコントラスト性の概念を紹介する。
まず、タスク拡張を定義するシンプルな方法を導入し、その後タスク表現の教師なしクラスタリングを促進するタスクレベルのコントラスト損失を定義します。
提案手法は軽量であり,既存の数ショット/メタ学習アルゴリズムに容易に組み込むことができる。
重要なことは、タスク領域の事前の知識を必要とせず、一般化と計算効率の向上につながる。
メタデータセットのベンチマークで異なる実験を行い、さらなる複雑さを伴わずに優れた性能を実現する手法の有効性を実証する。
関連論文リスト
- Reverse Probing: Evaluating Knowledge Transfer via Finetuned Task Embeddings for Coreference Resolution [23.375053899418504]
複雑なソースタスクから凍結表現を探索する代わりに、複数の単純なソースタスクから1つのターゲットタスクへの埋め込みの有効性について検討する。
この結果,タスクの埋め込みは,意味的類似性タスクが最も有益であることが示され,コア参照の解決に大いに有用であることが判明した。
論文 参考訳(メタデータ) (2025-01-31T17:12:53Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Submodular Meta-Learning [43.15332631500541]
将来的なタスクのパフォーマンス向上のために,メタラーニングフレームワークの個別版を導入する。
我々のアプローチは、事前データ、すなわち、以前に訪れたタスクを使用して、適切な初期ソリューションセットをトレーニングすることを目的としている。
我々のフレームワークは、性能損失を小さく抑えながら、新しいタスクを解く際に、計算の複雑さを著しく低減させることを示した。
論文 参考訳(メタデータ) (2020-07-11T21:02:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。