論文の概要: IDEAL: Independent Domain Embedding Augmentation Learning
- arxiv url: http://arxiv.org/abs/2105.10112v1
- Date: Fri, 21 May 2021 03:40:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 12:11:54.834941
- Title: IDEAL: Independent Domain Embedding Augmentation Learning
- Title(参考訳): IDEAL: 独立したドメイン埋め込み学習
- Authors: Zhiyuan Chen, Guang Yao, Wennan Ma, Lin Xu
- Abstract要約: 我々は,独立ドメイン埋め込み強化学習法(I)を新たに開発する。
複数のデータドメインによって生成された変換に対して、複数の独立した埋め込み空間を同時に学習することができる。
我々のISOPは既存のDML技術であり、性能向上のために従来のDMLアプローチとシームレスに組み合わせることができる。
- 参考スコア(独自算出の注目度): 8.376337907951012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many efforts have been devoted to designing sampling, mining, and weighting
strategies in high-level deep metric learning (DML) loss objectives. However,
little attention has been paid to low-level but essential data transformation.
In this paper, we develop a novel mechanism, the independent domain embedding
augmentation learning ({IDEAL}) method. It can simultaneously learn multiple
independent embedding spaces for multiple domains generated by predefined data
transformations. Our IDEAL is orthogonal to existing DML techniques and can be
seamlessly combined with prior DML approaches for enhanced performance.
Empirical results on visual retrieval tasks demonstrate the superiority of the
proposed method. For example, the IDEAL improves the performance of MS loss by
a large margin, 84.5\% $\rightarrow$ 87.1\% on Cars-196, and 65.8\%
$\rightarrow$ 69.5\% on CUB-200 at Recall$@1$. Our IDEAL with MS loss also
achieves the new state-of-the-art performance on three image retrieval
benchmarks, \ie, \emph{Cars-196}, \emph{CUB-200}, and \emph{SOP}. It
outperforms the most recent DML approaches, such as Circle loss and XBM,
significantly. The source code and pre-trained models of our method will be
available at\emph{\url{https://github.com/emdata-ailab/IDEAL}}.
- Abstract(参考訳): 高レベルのDeep Metric Learning(DML)損失目標におけるサンプリング、マイニング、重み付け戦略の設計に多くの努力が注がれている。
しかし、低レベルのデータ変換にはほとんど注意が払われていない。
本稿では,独立領域埋め込み拡張学習({ideal})法という新しいメカニズムを考案する。
事前定義されたデータ変換によって生成される複数のドメインに対して、複数の独立した埋め込み空間を同時に学習することができる。
我々のIDEALは既存のDML技術と直交しており、性能向上のために従来のDMLアプローチとシームレスに組み合わせることができる。
視覚検索タスクにおける実験結果から,提案手法の優位性を示す。
例えば、IDEALは、CUB-200で84.5\%$\rightarrow$ 87.1\%、65.8\%$\rightarrow$ 69.5\%をRecall$@1$で、MS損失のパフォーマンスを大きく改善している。
また, 画像検索ベンチマークである \ie, \emph{Cars-196} , \emph{CUB-200} , \emph{SOP} の3つの画像検索ベンチマークにおいて, 新たな最先端性能を実現する。
これは、Circle LosやXBMなど、最新のDMLアプローチよりも大幅に優れています。
このメソッドのソースコードと事前トレーニングされたモデルは、github.com/emdata-ailab/ideal}}で入手できる。
関連論文リスト
- FREE: Faster and Better Data-Free Meta-Learning [77.90126669914324]
Data-Free Meta-Learning (DFML) は、トレーニング済みモデルのコレクションから、元のデータを必要としない知識を抽出することを目的としている。
i)事前訓練されたモデルからトレーニングタスクを迅速に回復するためのメタジェネレータ,(ii)新しい未知のタスクに一般化するためのメタラーナーを含む、より高速で優れたデータフリーなメタラーニングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-05-02T03:43:19Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - State Representation Learning Using an Unbalanced Atlas [8.938418994111716]
本稿では,非平衡アトラス(UA)を用いた,最先端の自己教師型学習手法を超越した新しい学習パラダイムを提案する。
DIM-UAの有効性は、Atari Annotated RAM Interfaceベンチマークのトレーニングと評価を通じて実証される。
論文 参考訳(メタデータ) (2023-05-17T14:58:58Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - MELTR: Meta Loss Transformer for Learning to Fine-tune Video Foundation
Models [10.10825306582544]
本稿では,様々な損失関数を自動かつ非線形に組み合わせて,補助学習による目標タスクの学習を支援するプラグインモジュールであるMeta Loss TRansformerを提案する。
評価のために、我々のフレームワークを様々なビデオ基盤モデル(UniVL、Violet、All-in-one)に適用し、4つのダウンストリームタスクにおいて大きなパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-03-23T03:06:44Z) - Self-distillation with Online Diffusion on Batch Manifolds Improves Deep
Metric Learning [23.974500845619175]
DMLのためのオンラインバッチ拡散に基づく自己蒸留(OBD-SD)を提案する。
まず, モデル自体から知識を段階的に蒸留する, 単純だが効果的なプログレッシブ自己蒸留法を提案する。
次に, PSD を Online Batch Diffusion Process (OBDP) で拡張し, 各バッチにおける多様体の局所的幾何学的構造を捉える。
論文 参考訳(メタデータ) (2022-11-14T17:38:07Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z) - Online Meta-Learning for Multi-Source and Semi-Supervised Domain
Adaptation [4.1799778475823315]
本稿では,既存のDAアルゴリズムの初期条件をメタラーニングすることで,性能向上のためのフレームワークを提案する。
マルチソース非教師付きドメイン適応(MSDA)と半教師付きドメイン適応(SSDA)の両方の変種を提示する。
最大規模のDomainNetを含む,いくつかのDAベンチマークで得られた成果を報告する。
論文 参考訳(メタデータ) (2020-04-09T07:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。