論文の概要: Flexible deep transfer learning by separate feature embeddings and
manifold alignment
- arxiv url: http://arxiv.org/abs/2012.12302v1
- Date: Tue, 22 Dec 2020 19:24:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-04-26 07:28:45.211372
- Title: Flexible deep transfer learning by separate feature embeddings and
manifold alignment
- Title(参考訳): 特徴埋め込みと多様体アライメントの分離によるフレキシブル深層伝達学習
- Authors: Samuel Rivera, Joel Klipfel, Deborah Weeks
- Abstract要約: オブジェクト認識は、業界と防衛において重要な存在である。
残念ながら、既存のラベル付きデータセットでトレーニングされたアルゴリズムは、データ分布が一致しないため、直接新しいデータに一般化しない。
本稿では,各領域の特徴抽出を個別に学習することで,この制限を克服する新しいディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object recognition is a key enabler across industry and defense. As
technology changes, algorithms must keep pace with new requirements and data.
New modalities and higher resolution sensors should allow for increased
algorithm robustness. Unfortunately, algorithms trained on existing labeled
datasets do not directly generalize to new data because the data distributions
do not match. Transfer learning (TL) or domain adaptation (DA) methods have
established the groundwork for transferring knowledge from existing labeled
source data to new unlabeled target datasets. However, current DA approaches
assume similar source and target feature spaces and suffer in the case of
massive domain shifts or changes in the feature space. Existing methods assume
the data are either the same modality, or can be aligned to a common feature
space. Therefore, most methods are not designed to support a fundamental domain
change such as visual to auditory data. We propose a novel deep learning
framework that overcomes this limitation by learning separate feature
extractions for each domain while minimizing the distance between the domains
in a latent lower-dimensional space. The alignment is achieved by considering
the data manifold along with an adversarial training procedure. We demonstrate
the effectiveness of the approach versus traditional methods with several
ablation experiments on synthetic, measured, and satellite image datasets. We
also provide practical guidelines for training the network while overcoming
vanishing gradients which inhibit learning in some adversarial training
settings.
- Abstract(参考訳): オブジェクト認識は、業界と防衛において重要な存在である。
テクノロジーが変化するにつれて、アルゴリズムは新しい要求とデータに順応しなくてはならない。
新しいモダリティと高解像度センサーは、アルゴリズムの堅牢性を高めることができる。
残念ながら、既存のラベル付きデータセットでトレーニングされたアルゴリズムは、データ分布が一致しないため、直接新しいデータに一般化しない。
トランスファーラーニング (TL) あるいはドメイン適応 (DA) 手法は、既存のラベル付きソースデータから新しいラベル付きターゲットデータセットへ知識を転送する基盤を確立している。
しかし、現在のDAアプローチでは、ソースとターゲットの特徴空間が似ており、大きなドメインシフトや機能空間の変化に悩まされている。
既存のメソッドでは、データは同じモダリティか、共通の機能空間にアライメントできると仮定している。
したがって、ほとんどの手法は視覚的・聴覚的データのような基本的なドメイン変更をサポートするように設計されていない。
潜在低次元空間における領域間距離を最小化しつつ,各領域の特徴抽出を個別に学習することで,この制限を克服する新しいディープラーニングフレームワークを提案する。
このアライメントは、逆行訓練手順とともにデータ多様体を考慮して達成される。
本研究では, 合成, 測定, 衛星画像データセットに対するアブレーション実験を行い, 従来の手法に対するアプローチの有効性を示す。
また,学習を阻害する学習勾配を克服しつつ,ネットワークをトレーニングするための実践的ガイドラインも提供する。
関連論文リスト
- FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Ranking Distance Calibration for Cross-Domain Few-Shot Learning [91.22458739205766]
数ショット学習の最近の進歩は、より現実的なクロスドメイン設定を促進する。
ドメインギャップとソースとターゲットデータセット間のラベル空間の相違により、共有される知識は極めて限られている。
我々は,タスク内の相互k-アネレスト近傍を発見することで,目標距離行列の校正を行う。
論文 参考訳(メタデータ) (2021-12-01T03:36:58Z) - Domain Adaptation by Topology Regularization [0.0]
ドメイン適応(DA)または転送学習(TL)は、ラベル付き(ソース)データセットから関心のある(ターゲット)データセットに知識を転送するアルゴリズムを可能にする。
本稿では,TLに永続ホモロジーと呼ばれる位相データ解析手法を適用し,グローバルなデータ構造を活用することを提案する。
論文 参考訳(メタデータ) (2021-01-28T16:45:41Z) - Data-efficient Weakly-supervised Learning for On-line Object Detection
under Domain Shift in Robotics [24.878465999976594]
文献では、Deep Convolutional Neural Networks (DCNNs)に基づく多数のオブジェクト検出方法が提案されている。
これらの手法はロボティクスに重要な制限がある:オフラインデータのみに学習するとバイアスが発生し、新しいタスクへの適応を防ぐことができる。
本研究では,弱い教師付き学習がこれらの問題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2020-12-28T16:36:11Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Understanding Self-Training for Gradual Domain Adaptation [107.37869221297687]
段階的なドメイン適応は、対象領域へ徐々にシフトするラベルのないデータのみを与えられたソースドメインで訓練された初期分類器を適応させることが目的である。
目標領域への直接適応が非有界誤差をもたらすような設定下において、段階的なシフトを伴う自己学習の誤差に対する最初の非無空上界を証明した。
この理論解析はアルゴリズムの洞察を導き、無限のデータを持つ場合でも正規化とラベルのシャープ化が不可欠であることを強調し、より小さなワッサーシュタイン無限距離のシフトに対して自己学習が特にうまく働くことを示唆している。
論文 参考訳(メタデータ) (2020-02-26T08:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。