論文の概要: Which Transformer to Favor: A Comparative Analysis of Efficiency in
Vision Transformers
- arxiv url: http://arxiv.org/abs/2308.09372v1
- Date: Fri, 18 Aug 2023 08:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 13:54:45.064499
- Title: Which Transformer to Favor: A Comparative Analysis of Efficiency in
Vision Transformers
- Title(参考訳): どの変圧器を好むか:視覚変換器の効率の比較分析
- Authors: Tobias Christian Nauen, Sebastian Palacio, Andreas Dengel
- Abstract要約: 視覚変換器および関連アーキテクチャの効率を評価するために,30モデル以上の包括的解析を行う。
私たちのベンチマークは、効率指向のトランスフォーマーのランドスケープに匹敵するベースラインを提供します。
FLOPS数とトレーニングメモリとの間には強い正の相関関係が発見され,必要なVRAMの推定が可能となった。
- 参考スコア(独自算出の注目度): 6.701127328655752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing popularity of Vision Transformers as the go-to models for image
classification has led to an explosion of architectural modifications claiming
to be more efficient than the original ViT. However, a wide diversity of
experimental conditions prevents a fair comparison between all of them, based
solely on their reported results. To address this gap in comparability, we
conduct a comprehensive analysis of more than 30 models to evaluate the
efficiency of vision transformers and related architectures, considering
various performance metrics. Our benchmark provides a comparable baseline
across the landscape of efficiency-oriented transformers, unveiling a plethora
of surprising insights. For example, we discover that ViT is still Pareto
optimal across multiple efficiency metrics, despite the existence of several
alternative approaches claiming to be more efficient. Results also indicate
that hybrid attention-CNN models fare particularly well when it comes to low
inference memory and number of parameters, and also that it is better to scale
the model size, than the image size. Furthermore, we uncover a strong positive
correlation between the number of FLOPS and the training memory, which enables
the estimation of required VRAM from theoretical measurements alone.
Thanks to our holistic evaluation, this study offers valuable insights for
practitioners and researchers, facilitating informed decisions when selecting
models for specific applications. We publicly release our code and data at
https://github.com/tobna/WhatTransformerToFavor
- Abstract(参考訳): 画像分類のゴートモデルとしてのビジョントランスフォーマーの人気が高まり、オリジナルのViTよりも効率的であると主張するアーキテクチャ変更が急増した。
しかし、実験条件の多様さは、報告された結果のみに基づいて、すべての条件間で公正な比較を妨げている。
このようなコンパラビリティのギャップに対処するため、様々な性能指標を考慮して、30モデル以上の総合的な分析を行い、視覚変換器と関連するアーキテクチャの効率を評価する。
私たちのベンチマークでは、効率志向のトランスフォーマーの風景に匹敵するベースラインを提供しています。
例えば、ViTは、より効率的であると主張するいくつかの代替アプローチが存在するにもかかわらず、複数の効率指標に対して依然としてパレートが最適であることがわかった。
また,低推論メモリやパラメータ数に関しては,ハイブリッドアテンションCNNモデルは特に良好であり,画像サイズよりもモデルサイズをスケールした方がよいことも示唆した。
さらに,FLOPS数とトレーニングメモリとの間には強い正の相関関係がみられ,理論的な測定だけで必要なVRAMを推定できることがわかった。
総合的な評価のおかげで,本研究は実践者や研究者に貴重な洞察を与え,特定のアプリケーションのためのモデルを選択する際の情報的意思決定を促進する。
コードとデータはhttps://github.com/tobna/WhatTransformerToFavorで公開しています。
関連論文リスト
- E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - Transformers For Recognition In Overhead Imagery: A Reality Check [0.0]
オーバヘッド画像のための最先端セグメンテーションモデルにトランスフォーマー構造を加えることの影響を比較した。
我々の結果は、トランスフォーマーは一貫性があるが、控えめな、パフォーマンスの向上をもたらすことを示唆している。
論文 参考訳(メタデータ) (2022-10-23T02:17:31Z) - AdaViT: Adaptive Vision Transformers for Efficient Image Recognition [78.07924262215181]
AdaViTは、パッチ、セルフアテンションヘッド、およびトランスフォーマーブロックを使用するための利用ポリシーを導出する適応フレームワークである。
本手法は,0.8%の精度で,最先端のビジョントランスに比べて2倍以上の効率向上を実現している。
論文 参考訳(メタデータ) (2021-11-30T18:57:02Z) - Efficient Vision Transformers via Fine-Grained Manifold Distillation [96.50513363752836]
視覚変換器のアーキテクチャは多くのコンピュータビジョンタスクで異常な性能を示した。
ネットワーク性能は向上するが、トランスフォーマーはより多くの計算資源を必要とすることが多い。
本稿では,教師のトランスフォーマーから,画像と分割パッチの関係を通して有用な情報を抽出することを提案する。
論文 参考訳(メタデータ) (2021-07-03T08:28:34Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Optimizing Inference Performance of Transformers on CPUs [0.0]
トランスフォーマーベースのモデル(BERTなど)は、検索、翻訳、質問応答など、多くの重要なWebサービスを支えている。
本稿では,cpu上でのトランスフォーマモデル参照のスケーラビリティと性能に関する実証分析を行う。
論文 参考訳(メタデータ) (2021-02-12T17:01:35Z) - HULK: An Energy Efficiency Benchmark Platform for Responsible Natural
Language Processing [76.38975568873765]
本稿では,自然言語処理のためのマルチタスクエネルギー効率ベンチマークプラットフォームであるHULKを紹介する。
我々は、事前訓練されたモデルのエネルギー効率を時間とコストの観点から比較する。
論文 参考訳(メタデータ) (2020-02-14T01:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。