論文の概要: DAM: Domain-Aware Module for Multi-Domain Dataset Condensation
- arxiv url: http://arxiv.org/abs/2505.22387v1
- Date: Wed, 28 May 2025 14:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.645761
- Title: DAM: Domain-Aware Module for Multi-Domain Dataset Condensation
- Title(参考訳): DAM:マルチドメインデータセット凝縮のためのドメイン認識モジュール
- Authors: Jaehyun Choi, Gyojin Han, Dong-Jae Lee, Sunghyun Baek, Junmo Kim,
- Abstract要約: MDDC(Multi-Domain dataset Condensation)は、単一ドメインとマルチドメインの両方で一般化されたデータをコンデンスすることを目的としている。
ドメイン認識モジュール(DAM)は、学習可能な空間マスクを通じて、各合成画像にドメイン関連機能を埋め込む。
DAMは、ベースラインデータセット凝縮メソッドよりも、ドメイン内、ドメイン外、アーキテクチャ間のパフォーマンスを一貫して改善する。
- 参考スコア(独自算出の注目度): 25.14130854166058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dataset Condensation (DC) has emerged as a promising solution to mitigate the computational and storage burdens associated with training deep learning models. However, existing DC methods largely overlook the multi-domain nature of modern datasets, which are increasingly composed of heterogeneous images spanning multiple domains. In this paper, we extend DC and introduce Multi-Domain Dataset Condensation (MDDC), which aims to condense data that generalizes across both single-domain and multi-domain settings. To this end, we propose the Domain-Aware Module (DAM), a training-time module that embeds domain-related features into each synthetic image via learnable spatial masks. As explicit domain labels are mostly unavailable in real-world datasets, we employ frequency-based pseudo-domain labeling, which leverages low-frequency amplitude statistics. DAM is only active during the condensation process, thus preserving the same images per class (IPC) with prior methods. Experiments show that DAM consistently improves in-domain, out-of-domain, and cross-architecture performance over baseline dataset condensation methods.
- Abstract(参考訳): Dataset Condensation (DC)は、ディープラーニングモデルのトレーニングに伴う計算とストレージの負担を軽減するための、有望なソリューションとして登場した。
しかし、既存のDC手法は、複数の領域にまたがる不均一な画像からなる現代データセットのマルチドメインの性質を概ね見落としている。
本稿では,DCを拡張してMDDC(Multi-Domain Dataset Condensation)を導入する。
そこで本研究では,学習可能な空間マスクを用いて,各合成画像にドメイン関連機能を埋め込む訓練時間モジュールであるDomain-Aware Module (DAM)を提案する。
実世界のデータセットでは明示的なドメインラベルはほとんど利用できないため、低周波数振幅統計を利用する周波数ベースの擬似ドメインラベルを採用する。
DAMは凝縮過程においてのみ有効であり、クラス毎の同じ画像(IPC)を事前の手法で保存する。
実験によると、DAMはベースラインデータセットの凝縮法よりも、ドメイン内、ドメイン外、アーキテクチャ間のパフォーマンスを一貫して改善している。
関連論文リスト
- Adapting Self-Supervised Representations to Multi-Domain Setups [47.03992469282679]
現在の最先端の自己教師型アプローチは、個々のドメインで訓練するときに有効であるが、目に見えないドメインでは限定的な一般化を示す。
本稿では,汎用的で軽量なドメイン・ディスタングル・モジュールを提案する。
論文 参考訳(メタデータ) (2023-09-07T20:05:39Z) - Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - Modular Domain Adaptation for Conformer-Based Streaming ASR [28.398302172150636]
一つのモデルで全てのパラメータをドメイン固有に保ちながらマルチドメインデータを処理できるフレームワークを提案する。
ビデオキャプションデータのみに基づいてトレーニングしたストリーミングコンバータトランスデューサでは、MDAベースのモデルが、他のドメイン上のマルチドメインモデルと同様のパフォーマンスに達することを示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-05-22T18:49:35Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Achieving Domain Generalization in Underwater Object Detection by Image
Stylization and Domain Mixup [8.983901488753967]
既存の水中物体検出手法は複雑な水中環境に起因する領域シフト問題に直面すると深刻に劣化する。
本稿では,データ拡張の観点からのドメイン一般化手法を提案する。
S-UODAC 2020データセットに関する総合的な実験は、提案手法がドメイン不変表現を学習できることを実証している。
論文 参考訳(メタデータ) (2021-04-06T01:45:07Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Unified Multi-Domain Learning and Data Imputation using Adversarial
Autoencoder [5.933303832684138]
マルチドメイン学習(MDL)、データ計算(DI)、マルチタスク学習(MTL)を組み合わせた新しいフレームワークを提案する。
本手法のコアとなるのは,(1)ドメイン間の差を小さくするためにドメイン不変な埋め込みを生成すること,(2)各ドメインのデータ分布を学習し,欠落データに対するデータ計算を正しく行うこと,である。
論文 参考訳(メタデータ) (2020-03-15T19:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。