論文の概要: TransAdapt: A Transformative Framework for Online Test Time Adaptive
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2302.14611v1
- Date: Fri, 24 Feb 2023 01:45:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 16:05:10.414638
- Title: TransAdapt: A Transformative Framework for Online Test Time Adaptive
Semantic Segmentation
- Title(参考訳): TransAdapt: オンラインテスト時間適応セマンティックセマンティックセグメンテーションのための変換フレームワーク
- Authors: Debasmit Das, Shubhankar Borse, Hyojin Park, Kambiz Azarian, Hong Cai,
Risheek Garrepalli, Fatih Porikli
- Abstract要約: テスト時間適応(TTA)セマンティックセマンティックセマンティックセマンティクスは、ソーストレーニング済みの画像セマンティクスモデルを、未ラベルの領域テストイメージのバッチに適応させる。
本稿では,変換器と入力変換を用いてセグメンテーション性能を向上させるフレームワークであるTransAdaptを提案する。
- 参考スコア(独自算出の注目度): 43.31250660146429
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test-time adaptive (TTA) semantic segmentation adapts a source pre-trained
image semantic segmentation model to unlabeled batches of target domain test
images, different from real-world, where samples arrive one-by-one in an online
fashion. To tackle online settings, we propose TransAdapt, a framework that
uses transformer and input transformations to improve segmentation performance.
Specifically, we pre-train a transformer-based module on a segmentation network
that transforms unsupervised segmentation output to a more reliable supervised
output, without requiring test-time online training. To also facilitate
test-time adaptation, we propose an unsupervised loss based on the transformed
input that enforces the model to be invariant and equivariant to photometric
and geometric perturbations, respectively. Overall, our framework produces
higher quality segmentation masks with up to 17.6% and 2.8% mIOU improvement
over no-adaptation and competitive baselines, respectively.
- Abstract(参考訳): テスト時間適応(tta)セマンティクスセグメンテーションは、ソース事前学習されたイメージセマンティクスセグメンテーションモデルを、実世界とは異なる、対象領域のテストイメージのラベルなしバッチに適応させる。
オンライン設定に対処するため,変換器と入力変換を用いてセグメンテーション性能を向上させるフレームワークであるTransAdaptを提案する。
具体的には,テスト時オンライントレーニングを必要とせずに,教師なしセグメント出力をより信頼性の高い教師付き出力に変換するセグメント化ネットワーク上で,トランスフォーマティブベースのモジュールを事前トレーニングする。
また、テスト時間適応を容易にするために、変換された入力に基づく教師なしの損失を提案し、それぞれが光度と幾何学的摂動に不変かつ同変であるようにモデルを強制する。
全体として、当社のフレームワークは17.6%までの高品質セグメンテーションマスクと、2.8%のmiou改善をそれぞれ無適応と競合ベースラインで実現しています。
関連論文リスト
- Investigating Shift Equivalence of Convolutional Neural Networks in
Industrial Defect Segmentation [3.843350895842836]
産業欠陥分割タスクでは、モデルの出力整合性(等価性とも呼ばれる)がしばしば見過ごされる。
CNNにおける従来のサンプリングレイヤの代替として,コンポーネントアテンション多相サンプリング(CAPS)と呼ばれる新しいダウン/アップサンプリング層が提案されている。
マイクロサーフェス欠陥(MSD)データセットと4つの実世界の産業的欠陥データセットの実験結果から,提案手法は高い等価性とセグメンテーション性能を示すことが示された。
論文 参考訳(メタデータ) (2023-09-29T00:04:47Z) - AdaptiveClick: Clicks-aware Transformer with Adaptive Focal Loss for Interactive Image Segmentation [51.82915587228898]
インタラクティブイメージ(IIS)のためのトランスフォーマーベースのマスク適応セグメンテーションフレームワークであるAdaptiveClickを紹介した。
Click-Aware Mask-Adaptive Transformer Decoder (CAMD) はクリックと画像の特徴の相互作用を強化する。
通常のViTバックボーンでは、9つのデータセットに対する広範な実験結果から、AdaptiveClickが最先端の手法よりも優れていることが示される。
論文 参考訳(メタデータ) (2023-05-07T13:47:35Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z) - UniDAformer: Unified Domain Adaptive Panoptic Segmentation Transformer
via Hierarchical Mask Calibration [49.16591283724376]
単一ネットワーク内でのドメイン適応型インスタンス分割とセマンティックセマンティックセマンティックセマンティクスを同時に実現可能な,シンプルで統一されたドメイン適応型パン光学セマンティクスセマンティクス変換器UniDAformerを設計する。
UniDAformerは階層型マスク(Hierarchical Mask, HMC)を導入し、オンザフライでのオンラインセルフトレーニングを通じて、領域、スーパーピクセル、注釈付きピクセルのレベルで不正確な予測を修正した。
1) 統合されたドメイン適応型パン光学適応を可能にする; 2) 誤った予測を緩和し、ドメイン適応型パン光学セグメンテーションを効果的に改善する; 3) より単純なトレーニングと推論パイプラインでエンドツーエンドのトレーニングを可能にする。
論文 参考訳(メタデータ) (2022-06-30T07:32:23Z) - Style Mixing and Patchwise Prototypical Matching for One-Shot
Unsupervised Domain Adaptive Semantic Segmentation [21.01132797297286]
ワンショットの教師なしドメイン適応では、セグメンタはトレーニング中にラベルなしのターゲットイメージを1つしか見ることができない。
このような計算負担を効果的に軽減できるOSUDA法を提案する。
提案手法は,ドメイン適応型セマンティックセグメンテーションのための2つの一般的なベンチマーク上で,最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-09T02:47:46Z) - Self-supervised Augmentation Consistency for Adapting Semantic
Segmentation [56.91850268635183]
本稿では,実用的かつ高精度な意味セグメンテーションのためのドメイン適応手法を提案する。
私たちは標準データ拡張技術である$-$フォトメトリックノイズ、フリップとスケーリング$-$を採用し、セマンティック予測の一貫性を保証する。
適応後の最先端セグメンテーション精度を大幅に改善し、バックボーンアーキテクチャと適応シナリオの異なる選択に整合性を持たせる。
論文 参考訳(メタデータ) (2021-04-30T21:32:40Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z) - Probabilistic Spatial Transformer Networks [0.6999740786886537]
本稿では、決定論的ではなく、変換を推定する確率的拡張を提案する。
これら2つの特性が,分類性能,ロバスト性,モデル校正性の向上につながることを示す。
さらに、時系列データにおけるモデル性能を改善することにより、非視覚領域へのアプローチが一般化されることを実証する。
論文 参考訳(メタデータ) (2020-04-07T18:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。