論文の概要: Multi-Domain Learning with Modulation Adapters
- arxiv url: http://arxiv.org/abs/2307.08528v1
- Date: Mon, 17 Jul 2023 14:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:44:40.942632
- Title: Multi-Domain Learning with Modulation Adapters
- Title(参考訳): 変調アダプタを用いたマルチドメイン学習
- Authors: Ekaterina Iakovleva, Karteek Alahari, Jakob Verbeek
- Abstract要約: マルチドメイン学習は、複数のドメインにまたがる画像分類など、関連するタスクを同時に処理することを目的としている。
変調アダプタは、各タスクに対して乗法的にモデルの畳み込み重みを更新する。
我々のアプローチは、既存の最先端のアプローチと同等かそれ以上の精度で、優れた結果をもたらす。
- 参考スコア(独自算出の注目度): 33.54630534228469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional networks are ubiquitous in computer vision, due to their
excellent performance across different tasks for various domains. Models are,
however, often trained in isolation for each task, failing to exploit
relatedness between tasks and domains to learn more compact models that
generalise better in low-data regimes. Multi-domain learning aims to handle
related tasks, such as image classification across multiple domains,
simultaneously. Previous work on this problem explored the use of a pre-trained
and fixed domain-agnostic base network, in combination with smaller learnable
domain-specific adaptation modules. In this paper, we introduce Modulation
Adapters, which update the convolutional filter weights of the model in a
multiplicative manner for each task. Parameterising these adaptation weights in
a factored manner allows us to scale the number of per-task parameters in a
flexible manner, and to strike different parameter-accuracy trade-offs. We
evaluate our approach on the Visual Decathlon challenge, composed of ten image
classification tasks across different domains, and on the ImageNet-to-Sketch
benchmark, which consists of six image classification tasks. Our approach
yields excellent results, with accuracies that are comparable to or better than
those of existing state-of-the-art approaches.
- Abstract(参考訳): 深層畳み込みネットワークは、様々な領域の様々なタスクにまたがる優れた性能のため、コンピュータビジョンにおいてユビキタスである。
しかし、モデルはしばしば各タスクを分離して訓練され、低データ環境でより一般化するよりコンパクトなモデルを学ぶために、タスクとドメインの間の関連性を活用できない。
マルチドメイン学習は、複数のドメインにわたる画像分類などの関連タスクを同時に扱うことを目的としている。
この問題に関する以前の研究は、学習可能なより小さなドメイン固有適応モジュールと組み合わせて、事前訓練された固定されたドメイン非依存のベースネットワークの使用を探求した。
本稿では,各タスクに対して,モデルの畳み込みフィルタ重みを乗算的に更新するModulation Adaptersを提案する。
これらの適応重みを因子的にパラメータ化することで、タスク毎のパラメータ数を柔軟な方法でスケールし、異なるパラメータ精度トレードオフを打つことができる。
我々は、異なる領域にわたる10の画像分類タスクからなるVisual Decathlonチャレンジと、6つの画像分類タスクからなるImageNet-to-Sketchベンチマークに対するアプローチを評価する。
我々のアプローチは、既存の最先端アプローチと同等かそれ以上の精度で、優れた結果をもたらす。
関連論文リスト
- Investigating the potential of Sparse Mixtures-of-Experts for multi-domain neural machine translation [59.41178047749177]
トレーニング中に見られるさまざまなドメインのデータを扱うことができ、トレーニング中に見つからないドメインに対して堅牢な効率的なモデルを開発することを目的として、マルチドメインニューラルネットワーク翻訳に重点を置いている。
SMOE(Sparse Mixture-of-Experts)モデルは、効率的なモデルスケーリングを可能にするため、このタスクに適していると仮定する。
マルチドメインシナリオにおけるSMoEの有用性を検証するための一連の実験を行い、Transformerの簡単な幅スケーリングは、実際はよりシンプルで驚くほど効率的なアプローチであり、SMoEと同等の性能レベルに達することを発見した。
論文 参考訳(メタデータ) (2024-07-01T09:45:22Z) - Scalarization for Multi-Task and Multi-Domain Learning at Scale [15.545810422759295]
複数の入力ドメインと/または出力タスクで単一のモデルをトレーニングすることで、複数のソースからの情報を統一されたバックボーンに圧縮することができる。
しかし、これらのネットワークの最適化は、異なるタスクやドメイン間の相違による課題である。
論文 参考訳(メタデータ) (2023-10-13T07:31:04Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - DynaGAN: Dynamic Few-shot Adaptation of GANs to Multiple Domains [26.95350186287616]
複数のドメインへのドメイン適応は、いくつかのトレーニングイメージから複数のドメインにまたがる複雑なイメージ分布を学習することを目的としている。
複数のターゲットドメインに対する新規な数ショットドメイン適応法であるDynaGANを提案する。
論文 参考訳(メタデータ) (2022-11-26T12:46:40Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Cross-Domain Few-Shot Classification via Adversarial Task Augmentation [16.112554109446204]
少数のショット分類は、各クラスのラベル付きサンプルがほとんどなく、見えないクラスを認識することを目的とする。
数ショット分類のためのメタラーニングモデルの多くは、そのようなタスクを解決するために様々なタスク共有帰納バイアス(メタ知識)を精巧に設計する。
本研究は,タスク強化による帰納バイアスの堅牢性向上を目的としている。
論文 参考訳(メタデータ) (2021-04-29T14:51:53Z) - Boosting Binary Masks for Multi-Domain Learning through Affine
Transformations [49.25451497933657]
マルチドメイン学習の目標は、すべてのドメインでタスクを実行する単一のモデルを作成することです。
最近の研究は、学習されたバイナリ変数を通して、与えられた元のconv-netの内部重みをマスキングすることでこの問題に対処できることを示した。
元のネットワークパラメータのアフィン変換によるマルチドメイン学習のためのバイナリマスクベースのモデルの一般定式化を提供する。
論文 参考訳(メタデータ) (2021-03-25T14:54:37Z) - Multi-path Neural Networks for On-device Multi-domain Visual
Classification [55.281139434736254]
本稿では,モバイルデバイス上でのマルチドメイン視覚分類のためのマルチパスネットワークの自動学習手法を提案する。
提案するマルチパスネットワークは,各ドメインに1つの強化学習コントローラを適用して,MobileNetV3のような検索空間から生成されたスーパーネットワークの最適経路を選択することにより,ニューラルネットワーク検索から学習する。
決定されたマルチパスモデルは、個々のドメインパス内の非共有ノード内にドメイン固有のパラメータを保持しながら、共有ノード内のドメイン間でパラメータを選択的に共有する。
論文 参考訳(メタデータ) (2020-10-10T05:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。