論文の概要: Homogeneous Online Transfer Learning with Online Distribution
Discrepancy Minimization
- arxiv url: http://arxiv.org/abs/1912.13226v1
- Date: Tue, 31 Dec 2019 08:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:14:24.490208
- Title: Homogeneous Online Transfer Learning with Online Distribution
Discrepancy Minimization
- Title(参考訳): オンライン分散分散最小化による同次オンライントランスファー学習
- Authors: Yuntao Du, Zhiwen Tan, Qian Chen, Yi Zhang, Chongjun Wang
- Abstract要約: 本稿では,新しい特徴表現の探索を目的とした,新しいオンライントランスファー学習手法を提案する。
我々は複数のソースドメインによるオンライントランスファー学習に注力し、Hedge戦略を用いてソースドメインからの知識を活用する。
2つの実世界のデータセットに対する総合的な実験により、我々の手法は最先端の手法よりも大きなマージンで優れていることが示された。
- 参考スコア(独自算出の注目度): 8.839311662918655
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Transfer learning has been demonstrated to be successful and essential in
diverse applications, which transfers knowledge from related but different
source domains to the target domain. Online transfer learning(OTL) is a more
challenging problem where the target data arrive in an online manner. Most OTL
methods combine source classifier and target classifier directly by assigning a
weight to each classifier, and adjust the weights constantly. However, these
methods pay little attention to reducing the distribution discrepancy between
domains. In this paper, we propose a novel online transfer learning method
which seeks to find a new feature representation, so that the marginal
distribution and conditional distribution discrepancy can be online reduced
simultaneously. We focus on online transfer learning with multiple source
domains and use the Hedge strategy to leverage knowledge from source domains.
We analyze the theoretical properties of the proposed algorithm and provide an
upper mistake bound. Comprehensive experiments on two real-world datasets show
that our method outperforms state-of-the-art methods by a large margin.
- Abstract(参考訳): 転送学習は、関連するが異なるソースドメインからの知識を対象ドメインに転送する多様なアプリケーションにおいて成功し、必須であることが示されている。
オンライン転送学習(OTL)は、ターゲットデータがオンラインに到着するより困難な問題である。
ほとんどのotlメソッドはソース分類器とターゲット分類器を直接結合し、各分類器に重みを割り当て、重みを常に調整する。
しかし、これらの手法はドメイン間の分布差を減らすことにはほとんど注意を払わない。
本稿では,新しい特徴表現の探索を目的とした新しいオンライントランスファー学習手法を提案する。
複数のソースドメインによるオンライントランスファー学習に注力し、Hedge戦略を用いてソースドメインからの知識を活用する。
提案するアルゴリズムの理論的性質を解析し,上限値を与える。
2つの実世界のデータセットに関する包括的実験により、この手法は最先端の手法よりも大きなマージンで優れていることが示された。
関連論文リスト
- Domain Adaptation via Rebalanced Sub-domain Alignment [22.68115322836635]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから関連するラベル付きターゲットドメインへ知識を転送する手法である。
過去に多くのUDA手法が成功したが、ソースとターゲットドメインは同一のクラスラベルの分布を持つ必要があると仮定することが多い。
本稿では、ソースとターゲットサブドメインを整列させて、ソース分類誤差を重み付けする新しい一般化法を提案する。
論文 参考訳(メタデータ) (2023-02-03T21:30:40Z) - Transfer RL via the Undo Maps Formalism [29.798971172941627]
ドメイン間で知識を伝達することは、機械学習における最も基本的な問題の1つである。
本稿では,対話型ドメイン間で知識を伝達するフレームワークTvDを提案する。
この目的が,模倣学習を想起させるポリシー更新スキームに結びつき,それを実装するための効率的なアルゴリズムを導出することを示す。
論文 参考訳(メタデータ) (2022-11-26T03:44:28Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Label Distribution Learning for Generalizable Multi-source Person
Re-identification [48.77206888171507]
人物再識別(Re-ID)は,映像監視システムにおいて重要な技術である。
教師付きモデルを任意の未確認領域に直接適用することは困難である。
一般化可能な多ソース人物Re-IDタスクに対処する新しいラベル分散学習法(LDL)を提案する。
論文 参考訳(メタデータ) (2022-04-12T15:59:10Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z) - Flexible deep transfer learning by separate feature embeddings and
manifold alignment [0.0]
オブジェクト認識は、業界と防衛において重要な存在である。
残念ながら、既存のラベル付きデータセットでトレーニングされたアルゴリズムは、データ分布が一致しないため、直接新しいデータに一般化しない。
本稿では,各領域の特徴抽出を個別に学習することで,この制限を克服する新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-22T19:24:44Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Unsupervised Transfer Learning with Self-Supervised Remedy [60.315835711438936]
手動ラベルのない新しいドメインにディープネットワークを一般化することは、ディープラーニングにとって難しい。
事前学習された知識は、学習されたドメインや新しいドメインについて強い仮定をしなければ、うまく伝達しない。
本研究は,ラベル付き関連ドメインからの知識伝達により,新規ドメインにおける未ラベル対象データの識別潜在空間を学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-08T16:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。