論文の概要: From Multi-label Learning to Cross-Domain Transfer: A Model-Agnostic
Approach
- arxiv url: http://arxiv.org/abs/2207.11742v1
- Date: Sun, 24 Jul 2022 13:37:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:11:28.376552
- Title: From Multi-label Learning to Cross-Domain Transfer: A Model-Agnostic
Approach
- Title(参考訳): マルチラベル学習からクロスドメイン移行へ:モデルに依存しないアプローチ
- Authors: Jesse Read
- Abstract要約: 我々は,タスクの伝達可能性は,ソースとターゲットドメイン,モデル間の類似度の測定から生じるという長期の仮定に挑戦するトランスファーラーニングのアプローチを開発する。
基本的には、ソースモデルキャパシティに基づいたタスク依存を作成することができることを示す。
- 参考スコア(独自算出の注目度): 1.5076964620370268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multi-label learning, a particular case of multi-task learning where a
single data point is associated with multiple target labels, it was widely
assumed in the literature that, to obtain best accuracy, the dependence among
the labels should be explicitly modeled. This premise led to a proliferation of
methods offering techniques to learn and predict labels together, for example
where the prediction for one label influences predictions for other labels.
Even though it is now acknowledged that in many contexts a model of dependence
is not required for optimal performance, such models continue to outperform
independent models in some of those very contexts, suggesting alternative
explanations for their performance beyond label dependence, which the
literature is only recently beginning to unravel. Leveraging and extending
recent discoveries, we turn the original premise of multi-label learning on its
head, and approach the problem of joint-modeling specifically under the absence
of any measurable dependence among task labels; for example, when task labels
come from separate problem domains. We shift insights from this study towards
building an approach for transfer learning that challenges the long-held
assumption that transferability of tasks comes from measurements of similarity
between the source and target domains or models. This allows us to design and
test a method for transfer learning, which is model driven rather than purely
data driven, and furthermore it is black box and model-agnostic (any base model
class can be considered). We show that essentially we can create
task-dependence based on source-model capacity. The results we obtain have
important implications and provide clear directions for future work, both in
the areas of multi-label and transfer learning.
- Abstract(参考訳): マルチラベル学習では, 単一のデータポイントを複数のターゲットラベルに関連付けるマルチタスク学習において, 最良精度を得るためには, ラベル間の依存を明示的にモデル化するべきであると広く想定された。
この前提により、例えばあるラベルの予測が他のラベルの予測に影響を与える場合など、ラベルを学習し、予測する技術を提供する手法が急増した。
現在では多くの文脈において、依存モデルが最適性能に必要とされないことが認識されているが、そのようなモデルはこれらの文脈において独立モデルよりも優れており、ラベル依存以外の性能に関する代替の説明が提案されている。
近年の発見の活用と拡張により,従来のマルチラベル学習の前提を転換し,タスクラベル間の測定可能な依存がない場合,例えばタスクラベルが別の問題領域から来ている場合などにおいて,特に共同モデリングの問題にアプローチする。
この研究から、タスクの転送可能性は、ソースと対象ドメインやモデル間の類似性の測定から生じるという長期にわたる仮定に挑戦する、トランスファー学習のアプローチの構築へと洞察をシフトする。
これにより、純粋にデータ駆動ではなくモデル駆動で、さらにブラックボックスとモデルに依存しない(どんなベースモデルクラスも考慮できる)トランスファーラーニングの方法の設計とテストが可能になります。
基本的に、ソースモデルのキャパシティに基づいてタスク依存を作成できることを示します。
得られた結果は,マルチラベル学習とトランスファー学習の両面で,今後の作業への明確な方向性を示す上で重要な意味を持つ。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Frugal Reinforcement-based Active Learning [12.18340575383456]
本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
論文 参考訳(メタデータ) (2022-12-09T14:17:45Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Semi-Supervised Learning of Semantic Correspondence with Pseudo-Labels [26.542718087103665]
SemiMatchは意味論的に類似した画像間の密接な対応を確立するための半教師付きソリューションである。
筆者らのフレームワークは,ソースと弱増強ターゲット間のモデル予測自体を用いて擬似ラベルを生成し,擬似ラベルを用いてソースと強増強ターゲット間のモデルの再学習を行う。
実験では、SemiMatchは様々なベンチマーク、特にPF-Willowにおける最先端のパフォーマンスを大きなマージンで達成している。
論文 参考訳(メタデータ) (2022-03-30T03:52:50Z) - Active Refinement for Multi-Label Learning: A Pseudo-Label Approach [84.52793080276048]
MLL(Multi-label Learning)は、あるインスタンスと関連するラベルを一連の概念から関連付けることを目的としている。
MLLの以前の研究は、主に概念セットが修正されると思われる設定に焦点を当てていた。
多くの現実世界のアプリケーションは、新しい要求を満たすために新しい概念をセットに導入する必要がある。
論文 参考訳(メタデータ) (2021-09-29T19:17:05Z) - Few-shot Learning via Dependency Maximization and Instance Discriminant
Analysis [21.8311401851523]
そこで本研究では,カテゴリ毎にラベル付きデータが極めて少ない新しいオブジェクトの認識をモデルが学習する,数ショットの学習問題について検討する。
本稿では,少数ショット処理に伴うラベルなしデータを利用して,少数ショット性能を向上させるための簡単な手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T02:19:01Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z) - Improving Classification through Weak Supervision in Context-specific
Conversational Agent Development for Teacher Education [1.215785021723604]
教育シナリオ固有の会話エージェントを開発するのに必要な労力は、時間を要する。
アノテーションをモデリングするための従来のアプローチは、何千もの例をラベル付けし、アノテーション間の合意と多数決を計算することに依存してきた。
本稿では,これらの問題に対処するために,多タスク弱監視手法とアクティブラーニングを組み合わせた手法を提案する。
論文 参考訳(メタデータ) (2020-10-23T23:39:40Z) - Adversarial Knowledge Transfer from Unlabeled Data [62.97253639100014]
本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
論文 参考訳(メタデータ) (2020-08-13T08:04:27Z) - Unsupervised Transfer Learning with Self-Supervised Remedy [60.315835711438936]
手動ラベルのない新しいドメインにディープネットワークを一般化することは、ディープラーニングにとって難しい。
事前学習された知識は、学習されたドメインや新しいドメインについて強い仮定をしなければ、うまく伝達しない。
本研究は,ラベル付き関連ドメインからの知識伝達により,新規ドメインにおける未ラベル対象データの識別潜在空間を学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-08T16:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。