論文の概要: HyTAS: A Hyperspectral Image Transformer Architecture Search Benchmark and Analysis
- arxiv url: http://arxiv.org/abs/2407.16269v1
- Date: Tue, 23 Jul 2024 08:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 18:06:10.931090
- Title: HyTAS: A Hyperspectral Image Transformer Architecture Search Benchmark and Analysis
- Title(参考訳): HyTAS:ハイパースペクトル変換器アーキテクチャのベンチマークと解析
- Authors: Fangqin Zhou, Mert Kilickaya, Joaquin Vanschoren, Ran Piao,
- Abstract要約: ハイパースペクトルイメージングのためのトランスフォーマーアーキテクチャ探索のための最初のベンチマークであるHyTASを提案する。
5つの異なるデータセットに対して最適なトランスフォーマーを識別するための12の異なる手法を評価する。
ハイパースペクトル変換器のサーチ性能について広範な因子分析を行う。
- 参考スコア(独自算出の注目度): 7.116403133334646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperspectral Imaging (HSI) plays an increasingly critical role in precise vision tasks within remote sensing, capturing a wide spectrum of visual data. Transformer architectures have significantly enhanced HSI task performance, while advancements in Transformer Architecture Search (TAS) have improved model discovery. To harness these advancements for HSI classification, we make the following contributions: i) We propose HyTAS, the first benchmark on transformer architecture search for Hyperspectral imaging, ii) We comprehensively evaluate 12 different methods to identify the optimal transformer over 5 different datasets, iii) We perform an extensive factor analysis on the Hyperspectral transformer search performance, greatly motivating future research in this direction. All benchmark materials are available at HyTAS.
- Abstract(参考訳): ハイパースペクトルイメージング(HSI)は、リモートセンシングにおける正確な視覚タスクにおいて、広範囲の視覚データを捉え、ますます重要な役割を担っている。
トランスフォーマーアーキテクチャはHSIタスク性能を大幅に向上させ、トランスフォーマーアーキテクチャサーチ(TAS)の進歩によりモデル発見が改善された。
これらの進歩をHSI分類に活用するために、以下に貢献する。
i)ハイパースペクトルイメージングのためのトランスフォーマーアーキテクチャ探索のための最初のベンチマークであるHyTASを提案する。
ii) 5つの異なるデータセットに対して最適なトランスフォーマーを識別するための12の異なる手法を総合的に評価する。
三 ハイパースペクトル変換器の探索性能について広範な因子分析を行い、今後の研究を大いに動機づける。
ベンチマーク資料はすべてHyTASで利用可能である。
関連論文リスト
- Evidential Transformers for Improved Image Retrieval [7.397099215417549]
本稿では,画像検索を改良し,頑健にするための不確実性駆動型トランスモデルであるEvidential Transformerを紹介する。
我々は、確率的手法を画像検索に取り入れ、堅牢で信頼性の高い結果を得る。
論文 参考訳(メタデータ) (2024-09-02T09:10:47Z) - Transformers Fusion across Disjoint Samples for Hyperspectral Image Classification [2.1223532600703385]
3Dスウィントランス(3D-ST)は、画像内の複雑な空間的関係を捉えるのに優れる。
SSTは、自己アテンション機構による長距離依存関係のモデリングを専門とする。
本稿では、ハイパースペクトル画像(HSI)の分類性能を大幅に向上させるために、これらの2つの変換器の注意融合を導入する。
論文 参考訳(メタデータ) (2024-05-02T08:49:01Z) - FactoFormer: Factorized Hyperspectral Transformers with Self-Supervised
Pretraining [36.44039681893334]
ハイパースペクトル画像(HSI)は、豊富なスペクトルと空間情報を含む。
現在の最先端ハイパースペクトル変換器は、入力されたHSIサンプルをスペクトル次元に沿ってトークン化するのみである。
本稿では、自己教師付き事前学習手順を取り入れた新しい分解スペクトル空間変換器を提案する。
論文 参考訳(メタデータ) (2023-09-18T02:05:52Z) - Vision Transformer with Convolutions Architecture Search [72.70461709267497]
本稿では,畳み込み型アーキテクチャサーチ(VTCAS)を用いたアーキテクチャ探索手法を提案する。
VTCASによって探索された高性能バックボーンネットワークは、畳み込みニューラルネットワークの望ましい特徴をトランスフォーマーアーキテクチャに導入する。
これは、特に低照度屋内シーンにおいて、物体認識のためのニューラルネットワークの堅牢性を高める。
論文 参考訳(メタデータ) (2022-03-20T02:59:51Z) - Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution [50.10987776141901]
近年の視覚変換器と自己注意は,様々なコンピュータビジョンタスクにおいて有望な成果を上げている。
我々は,CNNの局所的特徴とトランスフォーマーが捉えた長距離依存性を活用する,超解像(SR)タスクのための効果的なハイブリッドアーキテクチャを提案する。
提案手法は,多数のベンチマークデータセットから最先端のSR結果を得る。
論文 参考訳(メタデータ) (2022-03-15T06:52:25Z) - ViDT: An Efficient and Effective Fully Transformer-based Object Detector [97.71746903042968]
検出変換器は、オブジェクト検出のための最初のエンドツーエンド学習システムである。
視覚変換器は、画像分類のための最初の完全変換器ベースのアーキテクチャである。
本稿では、視覚・検出変換器(ViDT)を統合し、効果的で効率的な物体検出装置を構築する。
論文 参考訳(メタデータ) (2021-10-08T06:32:05Z) - Vision Transformer Architecture Search [64.73920718915282]
現在の視覚変換器(ViT)は、自然言語処理(NLP)タスクから単純に継承される。
ハードウェア予算に類似した最適アーキテクチャを探索するために,ViTASと呼ばれるアーキテクチャ探索手法を提案する。
検索したアーキテクチャは、ImageNetで74.7%の精度で、現在のベースラインのViTアーキテクチャよりも2.5%高い。
論文 参考訳(メタデータ) (2021-06-25T15:39:08Z) - Exploring Vision Transformers for Fine-grained Classification [0.0]
アーキテクチャ変更を必要とせずに情報領域をローカライズする,きめ細かな画像分類タスクのための多段階ViTフレームワークを提案する。
CUB-200-2011,Stanford Cars,Stanford Dogs,FGVC7 Plant Pathologyの4つのベンチマークを用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-06-19T23:57:31Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - AutoTrans: Automating Transformer Design via Reinforced Architecture
Search [52.48985245743108]
本稿では,手作業に適したトランスフォーマーアーキテクチャを実現するために,レイヤノルムの設定方法,スケール,レイヤ数,ヘッド数,アクティベーション関数などを実証的に検討する。
CoNLL03、Multi-30k、IWSLT14、WMT-14の実験は、探索されたトランスモデルが標準トランスモデルより優れていることを示している。
論文 参考訳(メタデータ) (2020-09-04T08:46:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。