論文の概要: Composite Active Learning: Towards Multi-Domain Active Learning with
Theoretical Guarantees
- arxiv url: http://arxiv.org/abs/2402.02110v1
- Date: Sat, 3 Feb 2024 10:22:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 22:03:04.352353
- Title: Composite Active Learning: Towards Multi-Domain Active Learning with
Theoretical Guarantees
- Title(参考訳): 複合アクティブラーニング:理論的保証者によるマルチドメインアクティブラーニングを目指して
- Authors: Guang-Yuan Hao, Hengguan Huang, Haotian Wang, Jie Gao, Hao Wang
- Abstract要約: アクティブラーニング(AL)は、ラベルに最も有用なデータポイントを選択することで、固定されたラベル付け予算内でのモデルパフォーマンスを改善することを目的としている。
マルチドメインALのための合成能動学習(CAL)と呼ばれる最初の一般手法を提案する。
理論解析により,本手法は現在のAL法よりも優れた誤差境界が得られることが示された。
- 参考スコア(独自算出の注目度): 12.316113075760743
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Active learning (AL) aims to improve model performance within a fixed
labeling budget by choosing the most informative data points to label. Existing
AL focuses on the single-domain setting, where all data come from the same
domain (e.g., the same dataset). However, many real-world tasks often involve
multiple domains. For example, in visual recognition, it is often desirable to
train an image classifier that works across different environments (e.g.,
different backgrounds), where images from each environment constitute one
domain. Such a multi-domain AL setting is challenging for prior methods because
they (1) ignore the similarity among different domains when assigning labeling
budget and (2) fail to handle distribution shift of data across different
domains. In this paper, we propose the first general method, dubbed composite
active learning (CAL), for multi-domain AL. Our approach explicitly considers
the domain-level and instance-level information in the problem; CAL first
assigns domain-level budgets according to domain-level importance, which is
estimated by optimizing an upper error bound that we develop; with the
domain-level budgets, CAL then leverages a certain instance-level query
strategy to select samples to label from each domain. Our theoretical analysis
shows that our method achieves a better error bound compared to current AL
methods. Our empirical results demonstrate that our approach significantly
outperforms the state-of-the-art AL methods on both synthetic and real-world
multi-domain datasets. Code is available at
https://github.com/Wang-ML-Lab/multi-domain-active-learning.
- Abstract(参考訳): アクティブラーニング(al)は、ラベル付けする最も有益なデータポイントを選択することで、固定ラベル付け予算内でモデルパフォーマンスを改善することを目的としている。
既存のalは、すべてのデータが同じドメイン(例えば同じデータセット)から来るシングルドメイン設定にフォーカスしている。
しかし、現実世界の多くのタスクは、しばしば複数のドメインを含む。
例えば、視覚認識では、異なる環境(例えば、異なる背景)で動作し、各環境のイメージが1つのドメインを構成するイメージ分類器を訓練することが望ましい。
このようなマルチドメインal設定は,(1)ラベリング予算の割り当て時に異なるドメイン間の類似性を無視し,(2)異なるドメイン間のデータの分散シフトを処理できないため,先行手法では困難である。
本稿では,マルチドメインALのための合成能動学習(CAL)と呼ばれる最初の汎用手法を提案する。
calはまずドメインレベルの重要度に応じて、ドメインレベルの予算を割り当てます。これは、我々が開発する上位のエラー境界を最適化することで見積もられています。
理論解析により,本手法は現在のAL法よりも優れた誤差境界が得られることが示された。
実験の結果,本手法は,合成および実世界のマルチドメインデータセットにおいて,最先端のAL手法よりも大幅に優れていることが示された。
コードはhttps://github.com/Wang-ML-Lab/multi-domain-active-learningで入手できる。
関連論文リスト
- Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - MultiMatch: Multi-task Learning for Semi-supervised Domain Generalization [55.06956781674986]
我々は、各ソースドメインにいくつかのラベル情報がある半教師付きドメイン一般化タスクの解決に頼っている。
我々は、MultiMatchを提案し、FixMatchをマルチタスク学習フレームワークに拡張し、SSDGのための高品質な擬似ラベルを生成する。
提案手法の有効性を検証し,いくつかのベンチマークDGデータセット上で既存の半教師付き手法とSSDG法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T14:44:33Z) - Aligning Domain-specific Distribution and Classifier for Cross-domain
Classification from Multiple Sources [25.204055330850164]
教師なしドメイン適応のための2つのアライメントステージを持つ新しいフレームワークを提案する。
本手法は画像分類のための一般的なベンチマークデータセットにおいて顕著な結果が得られる。
論文 参考訳(メタデータ) (2022-01-04T06:35:11Z) - Adaptive Methods for Aggregated Domain Generalization [26.215904177457997]
多くの設定において、プライバシに関する懸念は、トレーニングデータサンプルのドメインラベルを取得することを禁止している。
本稿では,この問題に対するドメイン適応的アプローチを提案する。
提案手法は,ドメインラベルを使わずに,様々な領域一般化ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-09T08:57:01Z) - Multi-Level Features Contrastive Networks for Unsupervised Domain
Adaptation [6.934905764152813]
教師なしのドメイン適応は、ラベル付きソースドメインからモデルをトレーニングし、ラベルなしのターゲットドメインで予測することを目的としています。
既存のメソッドは2つのドメインをドメインレベルに直接アライメントするか、あるいは深い機能に基づいてクラスレベルのドメインアライメントを実行する傾向があります。
本稿では,クラスレベルのアライメント手法について述べる。
論文 参考訳(メタデータ) (2021-09-14T09:23:27Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。