論文の概要: OSFormer: One-Stage Camouflaged Instance Segmentation with Transformers
- arxiv url: http://arxiv.org/abs/2207.02255v1
- Date: Tue, 5 Jul 2022 18:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 13:11:55.157939
- Title: OSFormer: One-Stage Camouflaged Instance Segmentation with Transformers
- Title(参考訳): osformer: トランスフォーマーを用いた1段カモフラージュインスタンスセグメンテーション
- Authors: Jialun Pei and Tianyang Cheng and Deng-Ping Fan and He Tang and
Chuanbo Chen and Luc Van Gool
- Abstract要約: OSFormerは、camouflaged instance segmentation (CIS)のためのワンステージトランスフォーマーフレームワークである
位置認識変換器(LST)を設計し、位置ラベルとインスタンス認識パラメータを求める。
我々は、LSTエンコーダとCNNバックボーンから様々なコンテキスト情報を統合するための粗大な融合(CFF)を開発する。
- 参考スコア(独自算出の注目度): 79.09486658392626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present OSFormer, the first one-stage transformer framework for
camouflaged instance segmentation (CIS). OSFormer is based on two key designs.
First, we design a location-sensing transformer (LST) to obtain the location
label and instance-aware parameters by introducing the location-guided queries
and the blend-convolution feedforward network. Second, we develop a
coarse-to-fine fusion (CFF) to merge diverse context information from the LST
encoder and CNN backbone. Coupling these two components enables OSFormer to
efficiently blend local features and long-range context dependencies for
predicting camouflaged instances. Compared with two-stage frameworks, our
OSFormer reaches 41% AP and achieves good convergence efficiency without
requiring enormous training data, i.e., only 3,040 samples under 60 epochs.
Code link: https://github.com/PJLallen/OSFormer.
- Abstract(参考訳): 我々は,CIS(camouflaged instance segmentation)のための最初のワンステージトランスフォーマーフレームワークであるOSFormerを紹介する。
OSFormerは2つの重要な設計に基づいている。
まず、位置検出変換器(LST)を設計し、位置誘導クエリとブレンド畳み込みフィードフォワードネットワークを導入することにより、位置ラベルとインスタンス認識パラメータを得る。
第2に、LSTエンコーダとCNNバックボーンから様々なコンテキスト情報を統合するための粗大粒核融合(CFF)を開発する。
これら2つのコンポーネントを結合することで、OSFormerはローカル機能と長期コンテキストの依存関係を効率的にブレンドして、camouflagedインスタンスを予測することができる。
2段階のフレームワークと比較して、OSFormerはAPが41%に達し、巨大なトレーニングデータを必要とすることなく、優れた収束効率を実現しています。
コードリンク:https://github.com/PJLallen/OSFormer。
関連論文リスト
- Adapting Pre-Trained Vision Models for Novel Instance Detection and Segmentation [15.414518995812754]
本稿では、オブジェクトの提案生成、インスタンステンプレートと提案領域の埋め込み生成、インスタンスラベル割り当ての埋め込みマッチングを含む統合フレームワーク(NIDS-Net)を提案する。
我々のフレームワークは現在の最先端の手法を超え、4つの検出データセットの平均精度(AP)において22.3、46.2、10.3、24.0の顕著な改善を示している。
論文 参考訳(メタデータ) (2024-05-28T06:16:57Z) - Isomer: Isomerous Transformer for Zero-shot Video Object Segmentation [59.91357714415056]
コンテクスト共有変換器(CST)とセマンティックガザリング散乱変換器(SGST)の2つの変種を提案する。
CSTは、軽量な計算により、画像フレーム内のグローバル共有コンテキスト情報を学習し、SGSTは、前景と背景のセマンティック相関を別々にモデル化する。
多段核融合にバニラ変換器を使用するベースラインと比較して,我々は13倍の速度向上を実現し,新しい最先端ZVOS性能を実現する。
論文 参考訳(メタデータ) (2023-08-13T06:12:00Z) - CalibNet: Dual-branch Cross-modal Calibration for RGB-D Salient Instance Segmentation [88.50067783122559]
CalibNetは3つの単純なモジュール、動的インタラクティブカーネル(DIK)と重量共有融合(WSF)で構成されている。
実験の結果、CalibNetは、COME15K-Nテストセット上で320*480の入力サイズを持つ58.0% APという有望な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-16T16:49:59Z) - Adaptive Spot-Guided Transformer for Consistent Local Feature Matching [64.30749838423922]
局所的特徴マッチングのための適応スポットガイド変換器(ASTR)を提案する。
ASTRは、統一された粗いアーキテクチャにおける局所的な一貫性とスケールのバリエーションをモデル化する。
論文 参考訳(メタデータ) (2023-03-29T12:28:01Z) - IncepFormer: Efficient Inception Transformer with Pyramid Pooling for
Semantic Segmentation [18.195826175511552]
IncepFormerは強力なセマンティックセグメンテーションアーキテクチャである。
グローバルなコンテキストと詳細なローカライゼーション機能を同時に取得する。
精度と速度の両面で最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-06T15:08:00Z) - Feature-Proxy Transformer for Few-Shot Segmentation [35.85575258482071]
Few-shot segmentation (FSS) は、いくつかのアノテーション付きサポートサンプルが与えられた新しいクラスでセマンティックセマンティックセマンティックセマンティクスを実行することを目的としている。
本稿では、線形分類ヘッドのセマンティッククラスを表すベクトルである「プロキシ」を特徴量変換器(FPTrans)法を提案する。
フレームワークは単純だが、FPTransは最先端デコーダ方式と同等に競合するFSS精度を実現する。
論文 参考訳(メタデータ) (2022-10-13T11:22:27Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - SOTR: Segmenting Objects with Transformers [0.0]
高品質なインスタンスセグメンテーションのための,新しい,フレキシブルで効果的なトランスフォーマーベースモデルを提案する。
提案手法は, TRansformer (SOTR) を用いたSegmenting Objects (Segmenting Objects) により, 分割パイプラインを単純化する。
我々のSOTRはMS COCOデータセットでよく機能し、最先端のインスタンスセグメンテーションアプローチを超えています。
論文 参考訳(メタデータ) (2021-08-15T14:10:11Z) - CSWin Transformer: A General Vision Transformer Backbone with
Cross-Shaped Windows [99.36226415086243]
汎用視覚タスクのための効率的なトランスフォーマーベースバックボーンCSWin Transformerを提案する。
トランスフォーマー設計における課題は、グローバルな自己アテンションが計算に非常に高価であるのに対して、ローカルな自己アテンションはトークン間の相互作用のフィールドを制限することが多いことである。
論文 参考訳(メタデータ) (2021-07-01T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。