論文の概要: TADIL: Task-Agnostic Domain-Incremental Learning through Task-ID
Inference using Transformer Nearest-Centroid Embeddings
- arxiv url: http://arxiv.org/abs/2306.11955v1
- Date: Wed, 21 Jun 2023 00:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 15:16:16.836208
- Title: TADIL: Task-Agnostic Domain-Incremental Learning through Task-ID
Inference using Transformer Nearest-Centroid Embeddings
- Title(参考訳): TADIL: Transformer Nearest-Centroid Embeddings を用いたタスクID推論によるタスク非依存ドメインインクリメンタル学習
- Authors: Gusseppe Bravo-Rocca, Peini Liu, Jordi Guitart, Ajay Dholakia, David
Ellison
- Abstract要約: ドメイン・インクリメンタル・ラーニングのシナリオにおいて,教師なしのタスクを識別するための新しいパイプラインを提案する。
我々は、パイプラインの軽量な計算要求を活用して、新しいタスクをいつ学習するかをオンラインで決定するアルゴリズムを考案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) models struggle with data that changes over time or
across domains due to factors such as noise, occlusion, illumination, or
frequency, unlike humans who can learn from such non independent and
identically distributed data. Consequently, a Continual Learning (CL) approach
is indispensable, particularly, Domain-Incremental Learning. In this paper, we
propose a novel pipeline for identifying tasks in domain-incremental learning
scenarios without supervision. The pipeline comprises four steps. First, we
obtain base embeddings from the raw data using an existing transformer-based
model. Second, we group the embedding densities based on their similarity to
obtain the nearest points to each cluster centroid. Third, we train an
incremental task classifier using only these few points. Finally, we leverage
the lightweight computational requirements of the pipeline to devise an
algorithm that decides in an online fashion when to learn a new task using the
task classifier and a drift detector. We conduct experiments using the SODA10M
real-world driving dataset and several CL strategies. We demonstrate that the
performance of these CL strategies with our pipeline can match the ground-truth
approach, both in classical experiments assuming task boundaries, and also in
more realistic task-agnostic scenarios that require detecting new tasks
on-the-fly
- Abstract(参考訳): 機械学習(ml)モデルは、ノイズ、咬合、照明、周波数といった要因によって、時間やドメイン間で変化するデータに苦しむ。
その結果、継続的学習(CL)アプローチ、特にドメイン・インクリメンタル・ラーニングは不可欠である。
本稿では,ドメインインクリメンタル学習シナリオにおけるタスクを監視せずに識別する新しいパイプラインを提案する。
パイプラインは4つのステップからなる。
まず、既存のトランスフォーマーモデルを用いて、生データからベース埋め込みを得る。
次に、その類似性に基づいて埋め込み密度をグループ化し、各クラスタ中心点の最も近い点を得る。
第3に、これらの数点のみを用いて増分タスク分類器を訓練する。
最後に,タスク分類器とドリフト検出器を用いて新しいタスクを学習する場合に,パイプラインの軽量な計算要求を利用してオンライン方式で決定するアルゴリズムを考案する。
我々は,SODA10M実世界の運転データセットといくつかのCL戦略を用いて実験を行った。
我々はこれらのCL戦略とパイプラインの性能が、タスク境界を仮定する古典的な実験と、新しいタスクをオンザフライで検出する必要のあるより現実的なシナリオの両方において、地道的なアプローチと一致することを実証した。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Clustering-based Domain-Incremental Learning [4.835091081509403]
連続学習における鍵となる課題は、いわゆる「破滅的な忘れ問題」である。
動的に更新されたサンプルや勾配の有限プールに対するオンラインクラスタリングに基づくアプローチを提案する。
提案手法の有効性と将来性を示す。
論文 参考訳(メタデータ) (2023-09-21T13:49:05Z) - Novel Batch Active Learning Approach and Its Application to Synthetic
Aperture Radar Datasets [7.381841249558068]
近年、合成開口レーダ(SAR)データarXiv:2204.00005のシーケンシャルな能動学習が実施されている。
そこで我々は,Dijkstraのコアセット生成用Annulus Core-Set(DAC)とバッチサンプリング用LocalMaxという,バッチアクティブラーニングのための新しい2部構成のアプローチを開発した。
DACとLocalMaxを組み合わせたバッチアクティブラーニングプロセスは、逐次アクティブラーニングとほぼ同じ精度で、バッチサイズに比例して効率的である。
論文 参考訳(メタデータ) (2023-07-19T23:25:21Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - Deep transfer learning for partial differential equations under
conditional shift with DeepONet [0.0]
深層演算子ネットワーク(DeepONet)を用いた条件シフト下でのタスク固有学習のための新しいTLフレームワークを提案する。
条件埋め込み演算子理論に触発されて、ソース領域とターゲット特徴領域の間の統計的距離を測定する。
提案するTLフレームワークは,ソースドメインとターゲットドメインの間に大きな違いがあるにも関わらず,高速かつ効率的なマルチタスク演算子学習を可能にする。
論文 参考訳(メタデータ) (2022-04-20T23:23:38Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Visual Transformer for Task-aware Active Learning [49.903358393660724]
プールベースのアクティブラーニングのための新しいパイプラインを提案する。
提案手法は,学習中に使用可能なアンラベリング例を利用して,ラベル付き例との相関関係を推定する。
ビジュアルトランスフォーマーは、ラベル付き例と非ラベル付き例の間の非ローカルビジュアル概念依存性をモデル化する。
論文 参考訳(メタデータ) (2021-06-07T17:13:59Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。