論文の概要: Optimized Generic Feature Learning for Few-shot Classification across
Domains
- arxiv url: http://arxiv.org/abs/2001.07926v1
- Date: Wed, 22 Jan 2020 09:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:39:52.827620
- Title: Optimized Generic Feature Learning for Few-shot Classification across
Domains
- Title(参考訳): ドメイン間一括分類のための遺伝的特徴学習の最適化
- Authors: Tonmoy Saikia, Thomas Brox, Cordelia Schmid
- Abstract要約: 我々は、ハイパーパラメータ最適化(HPO)の検証対象として、クロスドメイン、クロスタスクデータを用いることを提案する。
本手法は,領域内および領域内における少数ショット画像分類における有効性を示す。
学習した機能は、以前の数ショットとメタラーニングのアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 96.4224578618561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To learn models or features that generalize across tasks and domains is one
of the grand goals of machine learning. In this paper, we propose to use
cross-domain, cross-task data as validation objective for hyper-parameter
optimization (HPO) to improve on this goal. Given a rich enough search space,
optimization of hyper-parameters learn features that maximize validation
performance and, due to the objective, generalize across tasks and domains. We
demonstrate the effectiveness of this strategy on few-shot image classification
within and across domains. The learned features outperform all previous
few-shot and meta-learning approaches.
- Abstract(参考訳): タスクやドメインをまたいで一般化するモデルや機能を学ぶことは、機械学習の大きな目標のひとつです。
本稿では,ハイパーパラメータ最適化(hpo)の検証目的として,クロスドメイン・クロスタスクデータの利用を提案する。
十分な検索空間が与えられると、ハイパーパラメータの最適化は検証性能を最大化し、目的のためにタスクとドメインをまたいで一般化する機能を学ぶ。
本稿では,この戦略が領域内および領域間の画像分類において有効であることを示す。
学習機能は、それまでのマイナショットとメタラーニングのアプローチをすべて上回っている。
関連論文リスト
- EMPL: A novel Efficient Meta Prompt Learning Framework for Few-shot Unsupervised Domain Adaptation [22.586094394391747]
本稿では,FS-UDAのためのメタプロンプト学習フレームワークを提案する。
このフレームワークでは、事前訓練されたCLIPモデルを機能学習ベースモデルとして使用しています。
5-way 1-shotでは少なくとも15.4%,5-way 5-shotでは8.7%の大幅な改善が得られた。
論文 参考訳(メタデータ) (2024-07-04T17:13:06Z) - Domain Adversarial Active Learning for Domain Generalization
Classification [8.003401798449337]
ドメイン一般化モデルは、ソースドメインデータからクロスドメイン知識を学び、未知のターゲットドメインの性能を改善することを目的としている。
近年の研究では、多種多様なソース・ドメイン・サンプルがドメインの一般化能力を高めることが示されている。
そこで本研究では,ドメイン一般化における分類タスクに対するDAAL(Domain-adversarial Active Learning)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-10T10:59:22Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - Consolidated learning -- a domain-specific model-free optimization
strategy with examples for XGBoost and MIMIC-IV [4.370097023410272]
本稿では,統合学習と呼ばれるチューニング問題の新たな定式化を提案する。
このような設定では、単一のタスクをチューニングするよりも、全体の最適化時間に関心があります。
我々は,XGBoostアルゴリズムの実証研究とMIMIC-IV医療データベースから抽出した予測タスクの収集を通じて,このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-01-27T21:38:53Z) - Context-Conditional Adaptation for Recognizing Unseen Classes in Unseen
Domains [48.17225008334873]
我々は,COCOA (COntext Conditional Adaptive) Batch-Normalization と統合された特徴生成フレームワークを提案する。
生成されたビジュアル機能は、基礎となるデータ分散をよりよくキャプチャすることで、テスト時に見つからないクラスやドメインに一般化できます。
確立した大規模ベンチマークであるDomainNetに対する我々のアプローチを徹底的に評価し、分析する。
論文 参考訳(メタデータ) (2021-07-15T17:51:16Z) - MetaAlign: Coordinating Domain Alignment and Classification for
Unsupervised Domain Adaptation [84.90801699807426]
本稿ではMetaAlignと呼ばれるメタ最適化に基づく効果的な戦略を提案する。
ドメインアライメントの目的と分類の目的をメタ学習計画におけるメタトレーニングとメタテストのタスクとして扱う。
実験結果は,アライメントに基づくベースラインアプローチを用いた提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-03-25T03:16:05Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - Meta-Learning for Domain Generalization in Semantic Parsing [124.32975734073949]
セマンティック解析のためにゼロショットドメインをターゲットにしたメタラーニングフレームワークを使用する。
ゼロショット解析の仮想トレインと非結合領域からのテストセットをシミュレートするモデル非依存のトレーニングアルゴリズムを適用した。
論文 参考訳(メタデータ) (2020-10-22T19:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。