論文の概要: Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
- arxiv url: http://arxiv.org/abs/2103.14030v1
- Date: Thu, 25 Mar 2021 17:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 14:43:42.121544
- Title: Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
- Title(参考訳): Swin Transformer: シフトWindowsを使った階層型ビジョントランス
- Authors: Ze Liu and Yutong Lin and Yue Cao and Han Hu and Yixuan Wei and Zheng
Zhang and Stephen Lin and Baining Guo
- Abstract要約: 本稿では,コンピュータビジョンの汎用バックボーンとして機能する,Swin Transformerと呼ばれる新しいビジョントランスを提案する。
COCOの+2.7ボックスAPと+2.6マスクAP、ADE20Kの+3.2mIoUという大きなマージンで、トランスフォーマーベースのモデルのビジョンバックボーンとしての可能性を実証しています。
- 参考スコア(独自算出の注目度): 44.086393272557416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a new vision Transformer, called Swin Transformer, that
capably serves as a general-purpose backbone for computer vision. Challenges in
adapting Transformer from language to vision arise from differences between the
two domains, such as large variations in the scale of visual entities and the
high resolution of pixels in images compared to words in text. To address these
differences, we propose a hierarchical Transformer whose representation is
computed with shifted windows. The shifted windowing scheme brings greater
efficiency by limiting self-attention computation to non-overlapping local
windows while also allowing for cross-window connection. This hierarchical
architecture has the flexibility to model at various scales and has linear
computational complexity with respect to image size. These qualities of Swin
Transformer make it compatible with a broad range of vision tasks, including
image classification (86.4 top-1 accuracy on ImageNet-1K) and dense prediction
tasks such as object detection (58.7 box AP and 51.1 mask AP on COCO test-dev)
and semantic segmentation (53.5 mIoU on ADE20K val). Its performance surpasses
the previous state-of-the-art by a large margin of +2.7 box AP and +2.6 mask AP
on COCO, and +3.2 mIoU on ADE20K, demonstrating the potential of
Transformer-based models as vision backbones. The code and models will be made
publicly available at~\url{https://github.com/microsoft/Swin-Transformer}.
- Abstract(参考訳): 本稿では,コンピュータビジョンの汎用バックボーンとして機能する,Swin Transformerと呼ばれる新しいビジョントランスを提案する。
言語から視覚へのトランスフォーマーの適応の課題は、視覚的実体のスケールの大きな変化や、テキストの単語と比較して画像中のピクセルの高解像度化といった2つの領域の違いから生じる。
これらの違いに対処するため、シフトウィンドウを用いて表現を計算した階層変換器を提案する。
シフトウィンドウ方式は、オーバーラップしないローカルウィンドウに自己アテンション計算を制限し、クロスウィンドウ接続を可能にすることにより、より効率が向上する。
この階層アーキテクチャは様々なスケールでモデル化する柔軟性があり、画像サイズに関して線形計算の複雑さがある。
Swin Transformerのこれらの特性は、画像分類(ImageNet-1Kの86.4トップ-1精度)やオブジェクト検出(COCOテストデブの58.7ボックスAPと51.1マスクAP)やセマンティックセグメンテーション(ADE20K valの53.5 mIoU)といった密集した予測タスクを含む幅広い視覚タスクと互換性がある。
その性能は、COCOの+2.7ボックスAPと+2.6マスクAP、ADE20Kの+3.2 mIoUで、トランスフォーマーベースのモデルがビジョンバックボーンとしての可能性を示している。
コードとモデルは、~\url{https://github.com/microsoft/Swin-Transformer}で公開される。
関連論文リスト
- Vision Transformer with Quadrangle Attention [76.35955924137986]
窓面に基づく注意を一般的な四角形定式化に拡張する新しい四角形注意法(QA)を提案する。
提案手法では,既定のウィンドウを対象の四角形に変換するために,変換行列を予測し,エンドツーエンドで学習可能な四角形回帰モジュールを用いる。
QAをプレーンかつ階層的な視覚変換器に統合し、QFormerという名の新しいアーキテクチャを作成します。
論文 参考訳(メタデータ) (2023-03-27T11:13:50Z) - 3D UX-Net: A Large Kernel Volumetric ConvNet Modernizing Hierarchical
Transformer for Medical Image Segmentation [5.635173603669784]
本研究では,高機能なボリュームセグメンテーションのために,ConvNetモジュールを用いた階層型トランスフォーマを適応させる3D UX-Netという軽量なボリュームトリビュータを提案する。
具体的には、Swin Transformerにインスパイアされた大規模なグローバルな受容フィールドを実現するために、大きなカーネルサイズ(例:7.7times7$から始まる)でボリュームの奥行きの畳み込みを再検討する。
論文 参考訳(メタデータ) (2022-09-29T19:54:13Z) - HiViT: Hierarchical Vision Transformer Meets Masked Image Modeling [126.89573619301953]
我々はHiViT(Hierarchical ViT)という階層型視覚変換器の新しい設計を提案する。
HiViTはMIMで高い効率と優れたパフォーマンスを享受する。
ImageNet-1K上でMAEを実行する場合、HiViT-BはViT-Bよりも0.6%精度が向上し、Swin-Bよりも1.9$times$スピードアップしたと報告している。
論文 参考訳(メタデータ) (2022-05-30T09:34:44Z) - Aggregated Pyramid Vision Transformer: Split-transform-merge Strategy
for Image Recognition without Convolutions [1.1032962642000486]
この作業は、Vision Transformerをピラミッドアーキテクチャと組み合わせ、Split-merge-transformを使用してグループエンコーダを提案し、ネットワークアーキテクチャAggregated Pyramid Vision Transformer (APVT) と命名する。
CIFAR-10データセット上で画像分類タスクを行い、COCO 2017データセット上でオブジェクト検出タスクを実行する。
論文 参考訳(メタデータ) (2022-03-02T09:14:28Z) - What Makes for Hierarchical Vision Transformer? [46.848348453909495]
Swin TransformerとShuffle Transformerの自己アテンション層を単純な線形マッピングで置き換え、他のコンポーネントをそのままにします。
25.4Mパラメータと4.2GのFLOPを持つアーキテクチャは、28.3Mパラメータと4.5GのFLOPを持つSwin Transformerの81.3%と比較して80.5%のTop-1精度を実現している。
論文 参考訳(メタデータ) (2021-07-05T17:59:35Z) - CSWin Transformer: A General Vision Transformer Backbone with
Cross-Shaped Windows [99.36226415086243]
汎用視覚タスクのための効率的なトランスフォーマーベースバックボーンCSWin Transformerを提案する。
トランスフォーマー設計における課題は、グローバルな自己アテンションが計算に非常に高価であるのに対して、ローカルな自己アテンションはトークン間の相互作用のフィールドを制限することが多いことである。
論文 参考訳(メタデータ) (2021-07-01T17:59:56Z) - Focal Self-attention for Local-Global Interactions in Vision
Transformers [90.9169644436091]
局所的局所的相互作用と粗大な大域的相互作用の両方を包含する新しいメカニズムである焦点自己アテンションを提示する。
焦点自己アテンションを用いて、最先端の視覚変換器よりも優れた性能を実現する、Focal Transformerと呼ばれる新しい視覚変換器モデルを提案する。
論文 参考訳(メタデータ) (2021-07-01T17:56:09Z) - An Image is Worth 16x16 Words: Transformers for Image Recognition at
Scale [112.94212299087653]
ビジョントランスフォーマー(ViT)は、最先端の畳み込みネットワークと比較して優れた結果を得ると同時に、トレーニングする計算リソースを著しく少なくする。
論文 参考訳(メタデータ) (2020-10-22T17:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。