論文の概要: MC-PanDA: Mask Confidence for Panoptic Domain Adaptation
- arxiv url: http://arxiv.org/abs/2407.14110v1
- Date: Fri, 19 Jul 2024 08:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 18:23:52.944845
- Title: MC-PanDA: Mask Confidence for Panoptic Domain Adaptation
- Title(参考訳): MC-PanDA:Panoptic Domain Adaptationにおけるマスク信頼度
- Authors: Ivan Martinović, Josip Šarić, Siniša Šegvić,
- Abstract要約: 本稿では,マスク変圧器の顕著な能力を利用して,予測の不確実性を推定することを提案する。
提案手法は, 教師の予測の微粒化を活かして, 雑音増幅を回避する。
Synthia to Cityscapesの47.4 PQについて報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Domain adaptive panoptic segmentation promises to resolve the long tail of corner cases in natural scene understanding. Previous state of the art addresses this problem with cross-task consistency, careful system-level optimization and heuristic improvement of teacher predictions. In contrast, we propose to build upon remarkable capability of mask transformers to estimate their own prediction uncertainty. Our method avoids noise amplification by leveraging fine-grained confidence of panoptic teacher predictions. In particular, we modulate the loss with mask-wide confidence and discourage back-propagation in pixels with uncertain teacher or confident student. Experimental evaluation on standard benchmarks reveals a substantial contribution of the proposed selection techniques. We report 47.4 PQ on Synthia to Cityscapes, which corresponds to an improvement of 6.2 percentage points over the state of the art. The source code is available at https://github.com/helen1c/MC-PanDA.
- Abstract(参考訳): ドメイン適応型パノプティックセグメンテーションは、自然なシーン理解においてコーナーケースの長い尾を解消することを約束する。
従来の最先端技術では、クロスタスク一貫性、注意深いシステムレベルの最適化、教師予測のヒューリスティックな改善などによってこの問題に対処している。
対照的に,マスク変圧器の顕著な能力を利用して,予測の不確実性を推定することを提案する。
提案手法は, 教師の予測の微粒化を活かして, 雑音増幅を回避する。
特に,不確実な教師や自信ある学生を対象とする画素のマスク幅の信頼度とバックプロパゲーションの低下を補正する。
標準ベンチマーク実験の結果,提案手法の有効性が示唆された。
本報告では,Synthia to Cityscapesの47.4PQについて報告する。
ソースコードはhttps://github.com/helen1c/MC-PanDAで入手できる。
関連論文リスト
- Semi-supervised 2D Human Pose Estimation via Adaptive Keypoint Masking [2.297586471170049]
本稿では,サンプル中の情報を完全にマイニングし,より優れた推定性能が得られる適応型キーポイントマスキング法を提案する。
提案手法の有効性をCOCOとMPIIで検証し,最先端の半教師によるポーズ推定をそれぞれ5.2%と0.3%で上回った。
論文 参考訳(メタデータ) (2024-04-23T08:41:50Z) - Bootstrap Masked Visual Modeling via Hard Patches Mining [68.74750345823674]
マスク付き視覚モデリングは、一般化可能な表現の学習において有望な可能性を秘めているため、多くの注目を集めている。
モデルが教師の靴の中に立つことは同様に重要であると我々は主張する。
教師としてのモデルを強化するため,我々はハードパッチマイニング(HPM, Hard Patches Mining)を提案し,パッチワイド損失を予測し,次にマスクの場所を決定する。
論文 参考訳(メタデータ) (2023-12-21T10:27:52Z) - Regressor-Segmenter Mutual Prompt Learning for Crowd Counting [70.49246560246736]
本稿では,アノテーションの差によるバイアスや不正確性を解決するために,相互学習(mPrompt)を提案する。
実験により、mPromptは平均誤差(MAE)を著しく減少させることが示された。
論文 参考訳(メタデータ) (2023-12-04T07:53:59Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - Learning to Mask and Permute Visual Tokens for Vision Transformer
Pre-Training [59.923672191632065]
我々はMasked and Permuted Vision Transformer(MaPeT)という自己教師型事前学習手法を提案する。
MaPeTは、自動回帰および置換予測を使用して、パッチ内依存関係をキャプチャする。
以上の結果から,MaPeTはImageNet上での競合性能を実証した。
論文 参考訳(メタデータ) (2023-06-12T18:12:19Z) - Hard Patches Mining for Masked Image Modeling [52.46714618641274]
マスク付き画像モデリング(MIM)は、スケーラブルな視覚表現を学習する有望な可能性から、多くの研究の注目を集めている。
我々はMIM事前学習のための新しいフレームワークであるHPM(Hard Patches Mining)を提案する。
論文 参考訳(メタデータ) (2023-04-12T15:38:23Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。