論文の概要: A Style and Semantic Memory Mechanism for Domain Generalization
- arxiv url: http://arxiv.org/abs/2112.07517v1
- Date: Tue, 14 Dec 2021 16:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 14:20:59.799276
- Title: A Style and Semantic Memory Mechanism for Domain Generalization
- Title(参考訳): ドメイン一般化のためのスタイルと意味記憶機構
- Authors: Yang Chen and Yu Wang and Yingwei Pan and Ting Yao and Xinmei Tian and
Tao Mei
- Abstract要約: ドメイン内スタイルの不変性は、ドメインの一般化の効率を改善する上で重要な要素である。
本稿では,ドメイン間の意味的特徴の共通性を学習する上で特に有効な,新しい「判断」機構を提案する。
提案手法は最先端の手法をクリアマージンで超越している。
- 参考スコア(独自算出の注目度): 108.98041306507372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mainstream state-of-the-art domain generalization algorithms tend to
prioritize the assumption on semantic invariance across domains. Meanwhile, the
inherent intra-domain style invariance is usually underappreciated and put on
the shelf. In this paper, we reveal that leveraging intra-domain style
invariance is also of pivotal importance in improving the efficiency of domain
generalization. We verify that it is critical for the network to be informative
on what domain features are invariant and shared among instances, so that the
network sharpens its understanding and improves its semantic discriminative
ability. Correspondingly, we also propose a novel "jury" mechanism, which is
particularly effective in learning useful semantic feature commonalities among
domains. Our complete model called STEAM can be interpreted as a novel
probabilistic graphical model, for which the implementation requires convenient
constructions of two kinds of memory banks: semantic feature bank and style
feature bank. Empirical results show that our proposed framework surpasses the
state-of-the-art methods by clear margins.
- Abstract(参考訳): 最先端のドメイン一般化アルゴリズムは、ドメイン間の意味的不変性の仮定を優先する傾向がある。
一方、ドメイン内スタイルの不変性は通常、未熟であり、棚に置かれる。
本稿では,ドメイン内スタイルの不変性を活用することが,ドメイン一般化の効率向上に重要であることを明らかにする。
我々は、ネットワークがどのドメイン機能が不変で、インスタンス間で共有されているかを知ることが重要であることを検証し、ネットワークがその理解を深め、意味的判別能力を向上させる。
また,ドメイン間の意味的特徴の共通性を学習する上で特に有効な,新しい「判断」機構を提案する。
steamと呼ばれる完全なモデルは、新しい確率的グラフィカルモデルとして解釈でき、実装には2種類のメモリバンク(セマンティック特徴バンクとスタイル特徴バンク)の便利な構成が必要です。
実験の結果,提案手法は最先端の手法をクリアマージンで超えていることがわかった。
関連論文リスト
- Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - Robust Unsupervised Domain Adaptation by Retaining Confident Entropy via
Edge Concatenation [7.953644697658355]
教師なしのドメイン適応は、セマンティックセグメンテーションネットワークをトレーニングするための広範なピクセルレベルのアノテーションの必要性を軽減することができる。
本稿では,エントロピーに基づく対向ネットワーク内における内部情報と外部情報の相乗効果を利用した新しいドメイン適応手法を提案する。
我々は、より効果的なセグメンテーションのために多様な情報を統合する確率共有ネットワークを考案した。
論文 参考訳(メタデータ) (2023-10-11T02:50:16Z) - Randomized Adversarial Style Perturbations for Domain Generalization [49.888364462991234]
本稿では,RASP(Randomized Adversarial Style Perturbation)と呼ばれる新しい領域一般化手法を提案する。
提案アルゴリズムは, ランダムに選択されたクラスに対して, 対角方向の特徴のスタイルを乱し, 予期せぬ対象領域で観測される予期せぬスタイルに誤解されないよう, モデルを学習させる。
提案アルゴリズムは,様々なベンチマークによる広範な実験により評価され,特に大規模ベンチマークにおいて,領域一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2023-04-04T17:07:06Z) - Preserving Domain Private Representation via Mutual Information
Maximization [3.2597336130674317]
本稿では,ラベルを欠く領域にプライベートな表現を保存するためのアプローチを提案する。
我々の手法は、いくつかの公開データセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-01-09T22:55:57Z) - Context-Conditional Adaptation for Recognizing Unseen Classes in Unseen
Domains [48.17225008334873]
我々は,COCOA (COntext Conditional Adaptive) Batch-Normalization と統合された特徴生成フレームワークを提案する。
生成されたビジュアル機能は、基礎となるデータ分散をよりよくキャプチャすることで、テスト時に見つからないクラスやドメインに一般化できます。
確立した大規模ベンチマークであるDomainNetに対する我々のアプローチを徹底的に評価し、分析する。
論文 参考訳(メタデータ) (2021-07-15T17:51:16Z) - A Bit More Bayesian: Domain-Invariant Learning with Uncertainty [111.22588110362705]
ドメインの一般化は、ドメインシフトと、ターゲットドメインデータのアクセス不能に起因する不確実性のために困難である。
本稿では,変分ベイズ推定に基づく確率的枠組みを用いて,両課題に対処する。
2層ベイズ型ニューラルネットワークで共同で確立されたドメイン不変表現と分類器を導出する。
論文 参考訳(メタデータ) (2021-05-09T21:33:27Z) - Learning to Learn with Variational Information Bottleneck for Domain
Generalization [128.90691697063616]
ドメイン一般化モデルは、これまで見つからなかった領域に一般化することを学ぶが、予測の不確実性とドメインシフトに悩まされる。
ドメイン一般化のための確率論的メタラーニングモデルを導入し、ドメイン間で共有されるパラメータを分布としてモデル化する。
ドメインシフトに対処するため、メタ変動情報ボトルネックという提案原則を用いてドメイン不変表現を学習し、メタVIBと呼ぶ。
論文 参考訳(メタデータ) (2020-07-15T12:05:52Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。