論文の概要: MOSAIC: Masked Objective with Selective Adaptation for In-domain Contrastive Learning
- arxiv url: http://arxiv.org/abs/2510.16797v1
- Date: Sun, 19 Oct 2025 11:24:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.150463
- Title: MOSAIC: Masked Objective with Selective Adaptation for In-domain Contrastive Learning
- Title(参考訳): MOSAIC:ドメイン内コントラスト学習のための選択適応型タスク対象
- Authors: Vera Pavlova, Mohammed Makhlouf,
- Abstract要約: MOSAICは文埋め込みモデルのドメイン適応のための多段階フレームワークである。
統合学習パイプラインにおいて,マスク付き言語モデリング(MLM)と対照的な目的を協調的に最適化することにより,ドメイン関連表現の効果的な学習を可能にする。
- 参考スコア(独自算出の注目度): 1.2891210250935148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce MOSAIC (Masked Objective with Selective Adaptation for In-domain Contrastive learning), a multi-stage framework for domain adaptation of sentence embedding models that incorporates joint domain-specific masked supervision. Our approach addresses the challenges of adapting large-scale general-domain sentence embedding models to specialized domains. By jointly optimizing masked language modeling (MLM) and contrastive objectives within a unified training pipeline, our method enables effective learning of domain-relevant representations while preserving the robust semantic discrimination properties of the original model. We empirically validate our approach on both high-resource and low-resource domains, achieving improvements up to 13.4% in NDCG@10 (Normalized Discounted Cumulative Gain) over strong general-domain baselines. Comprehensive ablation studies further demonstrate the effectiveness of each component, highlighting the importance of balanced joint supervision and staged adaptation.
- Abstract(参考訳): 文埋め込みモデルのドメイン適応のための多段階フレームワークであるMOSAIC(Masked Objective with Selective Adaptation for In- Domain Contrastive Learning)を紹介する。
提案手法は,大規模汎用文埋め込みモデルを専門ドメインに適用する上での課題に対処する。
本手法は,マスク付き言語モデリング(MLM)と対照的な目的を統合学習パイプライン内で協調的に最適化することにより,原モデルの堅牢な意味的識別特性を維持しつつ,ドメイン関連表現の効果的な学習を可能にする。
NDCG@10(Normalized Discounted Cumulative Gain)の13.4%の改善を実現した。
包括的アブレーション研究は、各コンポーネントの有効性をさらに示し、バランスの取れた共同監督と段階的適応の重要性を強調している。
関連論文リスト
- SoMA: Singular Value Decomposed Minor Components Adaptation for Domain Generalizable Representation Learning [6.262268096839562]
ドメインの一般化は、1つまたは複数のソースドメインを使用してモデルを適応し、目に見えないターゲットドメインで堅牢なパフォーマンスを保証することを目的としています。
既存のPEFT手法は、事前訓練されたモデルの一般化可能なコンポーネントと学習タスク固有の特徴のバランスをとるのに苦労する。
Singular Value De Minor Components Adaptation (SoMA) を導入する。
論文 参考訳(メタデータ) (2024-12-05T11:17:57Z) - Mitigate Domain Shift by Primary-Auxiliary Objectives Association for
Generalizing Person ReID [39.98444065846305]
ReIDモデルは、インスタンス分類の目的に関するトレーニングを通じてのみドメイン不変表現を学ぶのに苦労します。
本稿では,弱いラベル付き歩行者唾液度検出のための補助学習目標を用いて,プライマリReIDインスタンス分類目標のモデル学習を指導する手法を提案する。
我々のモデルは、最近のテストタイムダイアグラムで拡張してPAOA+を形成し、補助的な目的に対してオンザフライ最適化を行うことができる。
論文 参考訳(メタデータ) (2023-10-24T15:15:57Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - IDA: Informed Domain Adaptive Semantic Segmentation [51.12107564372869]
クラスレベルのセグメンテーション性能に基づいてデータを混合する自己学習フレームワークであるDomain Informed Adaptation (IDA) モデルを提案する。
IDAモデルでは、クラスレベルの性能を期待信頼スコア(ECS)によって追跡し、動的スケジュールを用いて異なる領域のデータに対する混合比を決定する。
提案手法は,GTA-Vの都市景観への適応において1.1 mIoU,SynTHIAの都市への適応において0.9 mIoUのマージンで,最先端のUDA-SS法よりも優れる。
論文 参考訳(メタデータ) (2023-03-05T18:16:34Z) - Multi-level Consistency Learning for Semi-supervised Domain Adaptation [85.90600060675632]
半教師付きドメイン適応(SSDA)は、完全にラベル付けされたソースドメインから学習した知識をわずかにラベル付けされたターゲットドメインに適用することを目的としている。
SSDAのための多レベル一貫性学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-09T06:41:18Z) - From Big to Small: Adaptive Learning to Partial-Set Domains [94.92635970450578]
ドメイン適応は、分布シフト中のラベル付きソースドメインからラベルなしターゲットドメインへの知識獲得と普及を目標とする。
近年の進歩は、大規模の深層学習モデルにより、小規模の下流の多様な課題に取り組むための豊富な知識が得られていることを示している。
本稿では,学習パラダイムである部分領域適応(Partial Domain Adaptation, PDA)を紹介する。
論文 参考訳(メタデータ) (2022-03-14T07:02:45Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Exploiting Diverse Characteristics and Adversarial Ambivalence for
Domain Adaptive Segmentation [20.13548631627542]
新しいドメインにセマンティックセグメンテーションモデルを適用することは重要だが難しい問題だ。
特殊なプログレッシブな敵対的トレーニング機構と新しい自己訓練政策によって強化された条件付き適応フレームワークを提案する。
対象の画像が気象条件によって異なる様々な適応シナリオに対して,本手法を評価する。
論文 参考訳(メタデータ) (2020-12-10T11:50:59Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Improve Unsupervised Domain Adaptation with Mixup Training [18.329571222689562]
本稿では,ラベルの豊富な関連するソースドメインを用いて,注釈のないターゲットドメインの予測モデルを構築するという課題について検討する。
近年の研究では、ドメイン不変の特徴を学習する一般的な敵対的アプローチは、望ましいドメイン性能を達成するには不十分である。
対象データに対する一般化性能に直接対処するために、ミックスアップ定式化を用いて、ドメイン間のトレーニング制約を強制することを提案する。
論文 参考訳(メタデータ) (2020-01-03T01:21:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。