論文の概要: Boomda: Balanced Multi-objective Optimization for Multimodal Domain Adaptation
- arxiv url: http://arxiv.org/abs/2511.08152v1
- Date: Wed, 12 Nov 2025 01:42:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.67003
- Title: Boomda: Balanced Multi-objective Optimization for Multimodal Domain Adaptation
- Title(参考訳): Boomda:マルチモーダルドメイン適応のためのバランスの取れた多目的最適化
- Authors: Jun Sun, Xinxin Zhang, Simin Hong, Jian Zhu, Xiang Gao,
- Abstract要約: 一般的な解決策は教師なし領域適応(unsupervised domain adapt)であり、これは単調な環境で広く研究されている。
本稿では,異種マルチモーダル領域適応について検討する。そこでは,異なるモダリティの異なるドメインシフトが主な課題である。
モデル固有の特性を利用することで、問題を2次プログラミング問題に単純化することができる。
提案手法はtextbfBalanced multi-text-bfobjective textbftimization for textbfmultimodal textbf domain textbf を特徴とする。
- 参考スコア(独自算出の注目度): 17.15772103162049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal learning, while contributing to numerous success stories across various fields, faces the challenge of prohibitively expensive manual annotation. To address the scarcity of annotated data, a popular solution is unsupervised domain adaptation, which has been extensively studied in unimodal settings yet remains less explored in multimodal settings. In this paper, we investigate heterogeneous multimodal domain adaptation, where the primary challenge is the varying domain shifts of different modalities from the source to the target domain. We first introduce the information bottleneck method to learn representations for each modality independently, and then match the source and target domains in the representation space with correlation alignment. To balance the domain alignment of all modalities, we formulate the problem as a multi-objective task, aiming for a Pareto optimal solution. By exploiting the properties specific to our model, the problem can be simplified to a quadratic programming problem. Further approximation yields a closed-form solution, leading to an efficient modality-balanced multimodal domain adaptation algorithm. The proposed method features \textbf{B}alanced multi-\textbf{o}bjective \textbf{o}ptimization for \textbf{m}ultimodal \textbf{d}omain \textbf{a}daptation, termed \textbf{Boomda}. Extensive empirical results showcase the effectiveness of the proposed approach and demonstrate that Boomda outperforms the competing schemes. The code is is available at: https://github.com/sunjunaimer/Boomda.git.
- Abstract(参考訳): マルチモーダル学習は、様々な分野における多くの成功ストーリーに貢献する一方で、非常に高価なマニュアルアノテーションの課題に直面している。
注釈付きデータの不足に対処するために、一般的な解法は教師なしのドメイン適応であり、これは非モダル設定で広く研究されているが、マルチモーダル設定では検討されていない。
本稿では,異種マルチモーダル領域の適応について検討する。主な課題は,ソースからターゲット領域への異なるモダリティの異なるドメインシフトである。
まず、各モダリティの表現を独立に学習するために、情報ボトルネック法を導入し、次に、表現空間のソースドメインとターゲットドメインを相関アライメントでマッチングする。
すべてのモダリティのドメインアライメントのバランスをとるために、パレート最適解を目指して、問題を多目的タスクとして定式化する。
モデル固有の特性を利用することで、問題を2次プログラミング問題に単純化することができる。
さらなる近似により閉形式解が得られ、効率的なモダリティバランスのマルチモーダル領域適応アルゴリズムが導かれる。
提案手法は, マルチテキストbf{o}bjective \textbf{o}ptimization for \textbf{m}ultimodal \textbf{d}omain \textbf{a}daptation, called \textbf{Boomda}。
大規模な実証実験の結果は提案手法の有効性を示し、ボームダが競合するスキームよりも優れていることを示した。
コードは、https://github.com/sunjunaimer/Boomda.git.comで入手できる。
関連論文リスト
- RoME: Domain-Robust Mixture-of-Experts for MILP Solution Prediction across Domains [17.62400981694534]
ドメイン間のMILPソリューションを予測するための,ドメイン-Robust Mixture-of-ExpertsフレームワークであるRoMEを紹介する。
3つのドメインでトレーニングされた1つのRoMEモデルは平均67.7%の改善を達成し、5つの異なるドメインで評価する。
論文 参考訳(メタデータ) (2025-11-04T07:32:27Z) - LADB: Latent Aligned Diffusion Bridges for Semi-Supervised Domain Translation [54.690154688667086]
拡散モデルは高品質な出力を生成するのに優れているが、データスカースドメインでは課題に直面している。
サンプルからサンプルへの変換のための半教師付きフレームワークであるLatent Aligned Diffusion Bridges (LADB)を提案する。
論文 参考訳(メタデータ) (2025-09-10T14:23:07Z) - Multi-Prompt Progressive Alignment for Multi-Source Unsupervised Domain Adaptation [73.40696661117408]
未ラベルの下流タスクにCLIPを適用するためのプログレッシブアライメント戦略を提案する。
私たちはアプローチをMP2Aと名付け、ImageCLEF、Office-Home、そして最も難しいDomainNetという3つの人気のあるUDAベンチマークでテストします。
実験によると、MP2Aは最新のCLIPベースのMS-UDAアプローチと比較して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-07-31T09:42:42Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
生成拡散モデルは、様々なクロスドメインアプリケーションで人気がある。
これらのモデルは複雑なネットワーク最適化問題に対処する上で有望である。
本稿では拡散モデルに基づく解生成という,拡散モデル生成のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Dynamic Domain Discrepancy Adjustment for Active Multi-Domain Adaptation [3.367755441623275]
マルチソースアン教師付きドメイン適応(MUDA)は、関連するソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
アクティブマルチドメイン適応(D3AAMDA)のための動的ドメイン不一致適応法(Dynamic Domain Disrepancy Adjustment)を提案する。
このメカニズムは、ソースドメインとターゲットドメイン間の特徴のアライメントレベルを制御し、ソースドメイン内のローカルな有利な特徴情報を効果的に活用する。
論文 参考訳(メタデータ) (2023-07-26T09:40:19Z) - Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。