論文の概要: ClusTR: Exploring Efficient Self-attention via Clustering for Vision
Transformers
- arxiv url: http://arxiv.org/abs/2208.13138v1
- Date: Sun, 28 Aug 2022 04:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:59:44.579093
- Title: ClusTR: Exploring Efficient Self-attention via Clustering for Vision
Transformers
- Title(参考訳): ClusTR:視覚変換器のためのクラスタリングによる効率的な自己注意の探索
- Authors: Yutong Xie, Jianpeng Zhang, Yong Xia, Anton van den Hengel, and Qi Wu
- Abstract要約: 本稿では,密集自己注意の代替として,コンテンツに基づくスパースアテンション手法を提案する。
具体的には、合計トークン数を減少させるコンテンツベースの方法として、キーとバリュートークンをクラスタ化し、集約する。
結果として得られたクラスタ化されたTokenシーケンスは、元の信号のセマンティックな多様性を保持するが、より少ない計算コストで処理できる。
- 参考スコア(独自算出の注目度): 70.76313507550684
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although Transformers have successfully transitioned from their language
modelling origins to image-based applications, their quadratic computational
complexity remains a challenge, particularly for dense prediction. In this
paper we propose a content-based sparse attention method, as an alternative to
dense self-attention, aiming to reduce the computation complexity while
retaining the ability to model long-range dependencies. Specifically, we
cluster and then aggregate key and value tokens, as a content-based method of
reducing the total token count. The resulting clustered-token sequence retains
the semantic diversity of the original signal, but can be processed at a lower
computational cost. Besides, we further extend the clustering-guided attention
from single-scale to multi-scale, which is conducive to dense prediction tasks.
We label the proposed Transformer architecture ClusTR, and demonstrate that it
achieves state-of-the-art performance on various vision tasks but at lower
computational cost and with fewer parameters. For instance, our ClusTR small
model with 22.7M parameters achieves 83.2\% Top-1 accuracy on ImageNet. Source
code and ImageNet models will be made publicly available.
- Abstract(参考訳): トランスフォーマーは言語モデリングから画像ベースのアプリケーションへの移行に成功しているが、その二次計算の複雑さは、特に密度の高い予測において、依然として課題となっている。
本稿では,密集した自己注意の代替として,長期依存をモデル化する能力を維持しつつ計算の複雑さを低減すべく,コンテンツベースのスパース注意手法を提案する。
具体的には、合計トークン数を減少させるコンテンツベースの方法として、キーとバリュートークンをクラスタ化し、集約する。
結果として得られたクラスタ化されたシーケンスは、元の信号の意味的多様性を保ちながら、より低い計算コストで処理できる。
さらに,クラスタリング誘導による注意を単一スケールからマルチスケールに拡張し,より密集した予測タスクを実現する。
提案する Transformer アーキテクチャ ClusTR にラベルを付け,様々なビジョンタスクにおいて,計算コストが低く,パラメータが少なく,最先端の性能を実現することを示す。
例えば、22.7Mパラメータを持つ私たちのClusTRの小さなモデルは、ImageNet上で83.2\%のTop-1精度を達成する。
ソースコードとImageNetモデルは一般公開される予定だ。
関連論文リスト
- Accelerating Transformers with Spectrum-Preserving Token Merging [43.463808781808645]
PiToMeは、エネルギースコアと呼ばれる追加のメトリックを使用して、情報トークンの保存を優先する。
実験の結果,PiToMeはベースモデルの40~60%のFLOPから保存されていた。
論文 参考訳(メタデータ) (2024-05-25T09:37:01Z) - Image Clustering via the Principle of Rate Reduction in the Age of Pretrained Models [37.574691902971296]
本稿では,大規模事前学習モデルの強力な特徴表現を利用した画像クラスタリングパイプラインを提案する。
パイプラインは、CIFAR-10、CIFAR-100、ImageNet-1kなどの標準データセットでうまく動作することを示す。
論文 参考訳(メタデータ) (2023-06-08T15:20:27Z) - Efficient Context Integration through Factorized Pyramidal Learning for
Ultra-Lightweight Semantic Segmentation [1.0499611180329804]
本稿では,FPL(Facterized Pyramidal Learning)モジュールを提案する。
空間ピラミッドを2つのステージに分解し,モジュール内での簡易かつ効率的な特徴融合により,悪名高いチェッカーボード効果を解決する。
FPLモジュールとFIRユニットをベースとしたFPLNetと呼ばれる超軽量リアルタイムネットワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T05:34:51Z) - Expediting Large-Scale Vision Transformer for Dense Prediction without
Fine-tuning [28.180891300826165]
大規模視覚変換器におけるトークンの総数を削減するために、多くの先進的なアプローチが開発されている。
2つの非パラメトリック演算子、トークン数を減らすトークンクラスタリング層、トークン数を増やすトークン再構成層を提供する。
その結果、オブジェクト検出、セマンティックセグメンテーション、パノスコープセグメンテーション、インスタンスセグメンテーション、深さ推定を含む5つの密集した予測タスクが期待できる。
論文 参考訳(メタデータ) (2022-10-03T15:49:48Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Shunted Self-Attention via Multi-Scale Token Aggregation [124.16925784748601]
最近のビジョン変換器(ViT)モデルは、様々なコンピュータビジョンタスクにまたがる励振結果を実証している。
注意層ごとのハイブリッドスケールでの注意をViTsでモデル化するShunted Self-attention(SSA)を提案する。
SSAベースの変換器は84.0%のTop-1精度を実現し、ImageNetの最先端のFocal Transformerより優れている。
論文 参考訳(メタデータ) (2021-11-30T08:08:47Z) - Scalable Visual Transformers with Hierarchical Pooling [61.05787583247392]
本稿では,視覚的トークンを徐々にプールしてシーケンス長を縮小する階層的ビジュアルトランスフォーマ(hvt)を提案する。
計算の複雑さを増すことなく、深さ/幅/解像度/パッチサイズの寸法をスケールすることで、大きなメリットをもたらします。
当社のHVTはImageNetとCIFAR-100データセットの競合ベースラインを上回っています。
論文 参考訳(メタデータ) (2021-03-19T03:55:58Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。