論文の概要: Trapped in texture bias? A large scale comparison of deep instance
segmentation
- arxiv url: http://arxiv.org/abs/2401.09109v1
- Date: Wed, 17 Jan 2024 10:21:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:13:16.367675
- Title: Trapped in texture bias? A large scale comparison of deep instance
segmentation
- Title(参考訳): テクスチャバイアスに閉じ込められた?
深部インスタンスセグメンテーションの大規模比較
- Authors: Johannes Theodoridis, Jessica Hofmann, Johannes Maucher, Andreas
Schilling
- Abstract要約: 61バージョンのMS COCOを68モデル評価し,4148個の評価を行った。
YOLACT++、SOTR、SOLOv2は、他のフレームワークよりも、配布外テクスチャに対してはるかに堅牢であることがわかった。
- 参考スコア(独自算出の注目度): 4.2603120588176635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Do deep learning models for instance segmentation generalize to novel objects
in a systematic way? For classification, such behavior has been questioned. In
this study, we aim to understand if certain design decisions such as framework,
architecture or pre-training contribute to the semantic understanding of
instance segmentation. To answer this question, we consider a special case of
robustness and compare pre-trained models on a challenging benchmark for
object-centric, out-of-distribution texture. We do not introduce another method
in this work. Instead, we take a step back and evaluate a broad range of
existing literature. This includes Cascade and Mask R-CNN, Swin Transformer,
BMask, YOLACT(++), DETR, BCNet, SOTR and SOLOv2. We find that YOLACT++, SOTR
and SOLOv2 are significantly more robust to out-of-distribution texture than
other frameworks. In addition, we show that deeper and dynamic architectures
improve robustness whereas training schedules, data augmentation and
pre-training have only a minor impact. In summary we evaluate 68 models on 61
versions of MS COCO for a total of 4148 evaluations.
- Abstract(参考訳): ディープラーニングモデル、例えばセグメンテーションは、体系的な方法で新しいオブジェクトに一般化するのか?
分類に関して、そのような行動は疑問視されている。
本研究では,フレームワークやアーキテクチャ,事前学習といった設計決定が,インスタンスセグメンテーションの意味的理解に寄与するかどうかを理解することを目的とする。
この問題に対処するために、我々は、厳密さの特別な事例を考察し、オブジェクト中心の分布外テクスチャのための挑戦的なベンチマークで事前学習されたモデルと比較する。
この作業には別の方法を導入しません。
代わりに、私たちは一歩後退して、幅広い既存の文献を評価します。
これには Cascade と Mask R-CNN, Swin Transformer, BMask, YOLACT(++), DETR, BCNet, SOTR, SOLOv2 が含まれる。
YOLACT++、SOTR、SOLOv2は、他のフレームワークよりも、配布外テクスチャに対してはるかに堅牢である。
さらに,より深い動的アーキテクチャではロバスト性が向上するが,トレーニングスケジュールやデータ拡張,事前トレーニングでは影響が小さい。
要約すると, 61バージョンのMS COCOを68モデル評価し, 合計4148評価を行った。
関連論文リスト
- End-to-End Ontology Learning with Large Language Models [11.755755139228219]
大規模言語モデル(LLM)は、オントロジー学習の様々なサブタスクを解決するために応用されている。
我々は、オントロジーの分類学的バックボーンをスクラッチから構築する汎用的でスケーラブルな方法であるOLLMによって、このギャップに対処する。
標準的なメトリクスとは対照的に、私たちのメトリクスは、グラフ間のより堅牢な構造的距離測定を定義するためにディープラーニング技術を使用します。
私たちのモデルは、arXivのような新しいドメインに効果的に適用できます。
論文 参考訳(メタデータ) (2024-10-31T02:52:39Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Conterfactual Generative Zero-Shot Semantic Segmentation [16.684570608930983]
一般的なゼロショットセマンティックセグメンテーション手法の1つは、生成モデルに基づいている。
本研究では,オリジナルのモデルにおいて,共同創設者を避けるための反事実的手法を検討する。
我々のモデルは、2つの実世界のデータセットのベースラインモデルと比較される。
論文 参考訳(メタデータ) (2021-06-11T13:01:03Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - RethinkCWS: Is Chinese Word Segmentation a Solved Task? [81.11161697133095]
中国語の単語(CWS)システムの性能は、ディープニューラルネットワークの急速な発展とともに、徐々に高水準に達している。
本稿では、私たちが達成した事柄の株式を取得し、CWSタスクに残されている事柄を再考する。
論文 参考訳(メタデータ) (2020-11-13T11:07:08Z) - An Analysis of Dataset Overlap on Winograd-Style Tasks [40.27778524078]
本稿では,WSC型タスクにおける学習コーパスとテストインスタンスの重複度の違いの影響を解析する。
KnowRef-60Kは、WSCスタイルの常識推論において、これまでで最大のコーパスである。
論文 参考訳(メタデータ) (2020-11-09T21:11:17Z) - Objectness-Aware Few-Shot Semantic Segmentation [31.13009111054977]
モデル全体のキャパシティを向上し、パフォーマンスを向上させる方法を示す。
我々は、クラス非依存であり、過度に適合しがちな客観性を導入する。
注釈のないカテゴリの例が1つだけあると、実験により、mIoUに関して、我々の手法が最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-04-06T19:12:08Z) - Learning What to Learn for Video Object Segmentation [157.4154825304324]
本稿では,多様な数発の学習モジュールを統合した,エンドツーエンドのトレーニング可能なVOSアーキテクチャを提案する。
この内部学習器は、ターゲットの強力なパラメトリックモデルを予測するように設計されている。
私たちは、大規模なYouTube-VOS 2018データセットに、総合スコア81.5を達成して、新たな最先端を設定しました。
論文 参考訳(メタデータ) (2020-03-25T17:58:43Z) - Learning Fast and Robust Target Models for Video Object Segmentation [83.3382606349118]
ビデオオブジェクトセグメンテーション(VOS)は、ターゲットオブジェクトを定義する初期マスクがテスト時にのみ与えられるため、非常に難しい問題である。
それまでのほとんどの場合、第1フレーム上のファイン・チューン・セグメンテーション・ネットワークにアプローチし、非現実的なフレームレートとオーバーフィッティングのリスクをもたらす。
本稿では,2つのネットワークコンポーネントからなる新しいVOSアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T21:58:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。