論文の概要: IBAFormer: Intra-batch Attention Transformer for Domain Generalized
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2309.06282v1
- Date: Tue, 12 Sep 2023 14:42:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 12:31:14.862333
- Title: IBAFormer: Intra-batch Attention Transformer for Domain Generalized
Semantic Segmentation
- Title(参考訳): ibaformer:ドメイン一般化意味セグメンテーションのためのバッチ内注意トランスフォーマ
- Authors: Qiyu Sun, Huilin Chen, Meng Zheng, Ziyan Wu, Michael Felsberg, Yang
Tang
- Abstract要約: ドメイン一般化セマンティックセグメンテーション(ドメイン一般化セマンティックセグメンテーション、Domain Generalized semantic segmentation、DGSS)は、モデルがターゲットデータにアクセスせずにソースデータにのみトレーニングされる重要なタスクである。
平均ベース・イントラバッチ・アテンション(MIBA)と要素ワイド・イントラバッチ・アテンション(EIBA)の2つの方法を提案する。
IBAFormerはDGSSの自己注意モジュールとバッチ内注目モジュールを統合している。
- 参考スコア(独自算出の注目度): 36.96568088741466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalized semantic segmentation (DGSS) is a critical yet challenging
task, where the model is trained only on source data without access to any
target data. Despite the proposal of numerous DGSS strategies, the
generalization capability remains limited in CNN architectures. Though some
Transformer-based segmentation models show promising performance, they
primarily focus on capturing intra-sample attentive relationships, disregarding
inter-sample correlations which can potentially benefit DGSS. To this end, we
enhance the attention modules in Transformer networks for improving DGSS by
incorporating information from other independent samples in the same batch,
enriching contextual information, and diversifying the training data for each
attention block. Specifically, we propose two alternative intra-batch attention
mechanisms, namely mean-based intra-batch attention (MIBA) and element-wise
intra-batch attention (EIBA), to capture correlations between different
samples, enhancing feature representation and generalization capabilities.
Building upon intra-batch attention, we introduce IBAFormer, which integrates
self-attention modules with the proposed intra-batch attention for DGSS.
Extensive experiments demonstrate that IBAFormer achieves SOTA performance in
DGSS, and ablation studies further confirm the effectiveness of each introduced
component.
- Abstract(参考訳): ドメイン一般化セマンティックセグメンテーション(dgss)は批判的だが困難なタスクであり、モデルは対象のデータにアクセスせずにソースデータのみに基づいてトレーニングされる。
多くのDGSS戦略の提案にもかかわらず、一般化能力はCNNアーキテクチャに限られている。
一部のTransformerベースのセグメンテーションモデルは、有望なパフォーマンスを示しているが、主にサンプル内の注意関係を捉え、DGSSに利益をもたらす可能性のあるサンプル間の相関を無視している。
そこで我々は,トランスフォーマーネットワークのアテンションモジュールを強化し,DGSSを改善するために,他の独立したサンプル情報を同一バッチに組み込んで,コンテキスト情報を強化し,各アテンションブロックのトレーニングデータを多様化する。
具体的には,異なるサンプル間の相関を捉え,特徴表現と一般化能力を高めるために,平均的バッチ内注意(miba)と要素間バッチ内注意(eiba)という2つの代替的なバッチ内注意機構を提案する。
IBAFormerは,DGSSの自己注意モジュールとバッチ内注目モジュールを統合している。
IBAFormer は DGSS において SOTA 性能を達成し, アブレーション実験により, 導入成分の有効性をさらに検証した。
関連論文リスト
- MLDGG: Meta-Learning for Domain Generalization on Graphs [9.872254367103057]
グラフ上のドメインの一般化は、堅牢な一般化機能を持つモデルを開発することを目的としている。
我々のフレームワークであるMDDGGは、多分野間メタラーニングを統合することで、多分野にわたる適応可能な一般化を実現する。
実験の結果,MDDGGはベースライン法を超越し,3種類の分散シフト設定で有効性を示した。
論文 参考訳(メタデータ) (2024-11-19T22:57:38Z) - Learning Generalizable Models via Disentangling Spurious and Enhancing
Potential Correlations [28.38895118573957]
ドメイン一般化 (Domain Generalization, DG) は、任意の未知のターゲットドメインに適切に一般化できるように、複数のソースドメイン上でモデルをトレーニングすることを目的としている。
サンプルや機能など、複数の視点を採用することは、効果的であることが証明されている。
本稿では,サンプルと特徴の両方の観点から,ドメイン不変表現の獲得を促すことによって,モデルの一般化能力の向上に焦点をあてる。
論文 参考訳(メタデータ) (2024-01-11T09:00:22Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Generalizable Metric Network for Cross-domain Person Re-identification [55.71632958027289]
クロスドメイン(ドメインの一般化)シーンは、Re-IDタスクにおいて課題となる。
既存のほとんどのメソッドは、すべてのドメインのドメイン不変またはロバストな機能を学ぶことを目的としています。
本稿では,サンプルペア空間における標本類似性を調べるために,GMN(Generalizable Metric Network)を提案する。
論文 参考訳(メタデータ) (2023-06-21T03:05:25Z) - Prototype-based Domain Generalization Framework for Subject-Independent
Brain-Computer Interfaces [17.60434807901964]
脳-コンピュータインターフェース(BCI)は脳波の経時的変動により実際に使用することが困難である
本稿では,ソースデータセットから主題固有のスタイル特徴を学習する補助タスクとして,オープンセット認識技術を用いたフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-15T07:35:46Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Semi-Supervised Domain Adaptation via Adaptive and Progressive Feature
Alignment [32.77436219094282]
SSDASはラベル付きターゲットサンプルを、ラベル付きソースサンプルとラベルなしターゲットサンプルの間に適応的かつプログレッシブな特徴アライメントのためのアンカーとして採用している。
さらに、反復学習過程において、異種音源の特徴を高信頼目標特徴に置き換える。
広範な実験により、提案されたSSDASは、多くのベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2021-06-05T09:12:50Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。