論文の概要: Visual Transformer for Soil Classification
- arxiv url: http://arxiv.org/abs/2209.02950v1
- Date: Wed, 7 Sep 2022 06:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:38:55.998209
- Title: Visual Transformer for Soil Classification
- Title(参考訳): 土壌分類のための視覚変換器
- Authors: Aaryan Jagetia, Umang Goenka, Priyadarshini Kumari, Mary Samuel
- Abstract要約: この研究は最先端のVisual Transformerを採用しており、SVM、Alexnet、Resnet、CNNといったさまざまなモデルと性能を比較している。
土壌タイプを分類するために、このデータセットは、沖積、赤、黒、粘土などの4種類の土壌サンプルからなる。
Visual Transformerモデルは、トレーニングで98.13%、テスト中に93.62%の精度で他のモデルより優れている。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our food security is built on the foundation of soil. Farmers would be unable
to feed us with fiber, food, and fuel if the soils were not healthy. Accurately
predicting the type of soil helps in planning the usage of the soil and thus
increasing productivity. This research employs state-of-the-art Visual
Transformers and also compares performance with different models such as SVM,
Alexnet, Resnet, and CNN. Furthermore, this study also focuses on
differentiating different Visual Transformers architectures. For the
classification of soil type, the dataset consists of 4 different types of soil
samples such as alluvial, red, black, and clay. The Visual Transformer model
outperforms other models in terms of both test and train accuracies by
attaining 98.13% on training and 93.62% while testing. The performance of the
Visual Transformer exceeds the performance of other models by at least 2%.
Hence, the novel Visual Transformers can be used for Computer Vision tasks
including Soil Classification.
- Abstract(参考訳): 我々の食料安全保障は土壌の基礎の上に構築されている。
農夫は、土壌が健康でなければ、繊維、食料、燃料を我々に供給できないだろう。
土壌の種類を正確に予測することは、土壌の使用を計画し、生産性を高めるのに役立つ。
この研究は最先端のビジュアルトランスフォーマーを使用し、svm、alexnet、resnet、cnnといった異なるモデルと比較する。
さらに本研究は,視覚トランスフォーマーのアーキテクチャの違いにも焦点を当てている。
土壌タイプの分類では、データセットは沖積、赤、黒、粘土の4種類の土壌サンプルで構成されている。
Visual Transformerモデルは、トレーニングで98.13%、テスト中に93.62%の精度で他のモデルより優れている。
Visual Transformerの性能は他のモデルの性能を少なくとも2%以上上回る。
したがって、新しい視覚トランスフォーマーは、土壌分類を含むコンピュータビジョンタスクに使用できる。
関連論文リスト
- A Comparative Survey of Vision Transformers for Feature Extraction in Texture Analysis [9.687982148528187]
畳み込みニューラルネットワーク(CNN)は現在、最高のテクスチャ分析アプローチの1つである。
視覚変換器(ViT)は、物体認識などのタスクにおいてCNNの性能を上回っている。
この研究は、テクスチャに依存するタスクに移行する際に、事前訓練された様々なViTアーキテクチャを探索する。
論文 参考訳(メタデータ) (2024-06-10T09:48:13Z) - Comparison between transformers and convolutional models for
fine-grained classification of insects [7.107353918348911]
私たちはInsectaの分類学クラスを考えます。
昆虫の識別は多くの生態系の基盤にある住民の1つであるため、生物多様性監視に不可欠である。
何十億もの画像が自動的に分類され、ディープニューラルネットワークアルゴリズムが、きめ細かいタスクのために研究されている主要なテクニックの1つです。
論文 参考訳(メタデータ) (2023-07-20T10:00:04Z) - Fusion of Satellite Images and Weather Data with Transformer Networks
for Downy Mildew Disease Detection [3.6868861317674524]
作物病は農業生産量と品質に大きな影響を及ぼす。
本稿では,3つのトランスを用いたデータ融合を実現するための新しい手法を提案する。
このアーキテクチャは、視覚変換器と2つの変換器エンコーダという3つの主要コンポーネントで構築されており、画像と気象の両方を融合させることができる。
論文 参考訳(メタデータ) (2022-09-06T19:55:16Z) - 3D Vision with Transformers: A Survey [114.86385193388439]
自然言語処理におけるトランスフォーマーアーキテクチャの成功は、コンピュータビジョン分野の注目を集めている。
本稿では,異なる3次元視覚タスクのための100以上のトランスフォーマー手法の体系的,徹底的なレビューを行う。
我々は3次元視覚におけるトランスフォーマー設計について議論し、様々な3次元表現でデータを処理できるようにする。
論文 参考訳(メタデータ) (2022-08-08T17:59:11Z) - A Survey of Visual Transformers [30.082304742571598]
注意に基づくエンコーダデコーダアーキテクチャであるTransformerは、自然言語処理の分野に革命をもたらした。
コンピュータビジョン(CV)分野へのトランスフォーマーアーキテクチャの適用に関する先駆的な研究が最近行われている。
我々は,3つの基本的なCVタスクに対して,100以上の異なる視覚変換器の総合的なレビューを行った。
論文 参考訳(メタデータ) (2021-11-11T07:56:04Z) - Vision Transformers For Weeds and Crops Classification Of High
Resolution UAV Images [3.1083892213758104]
ビジョントランスフォーマー(ViT)モデルは、畳み込み操作を適用することなく、競争またはより良い結果を達成することができる。
実験の結果,ラベル付きトレーニングデータでは,最新のCNNモデルと比較して,ViTモデルの方が優れていた。
論文 参考訳(メタデータ) (2021-09-06T19:58:54Z) - ConvNets vs. Transformers: Whose Visual Representations are More
Transferable? [49.62201738334348]
本研究では,15個のシングルタスクおよびマルチタスク性能評価において,ConvNetと視覚変換器の伝達学習能力について検討する。
13の下流タスクでTransformerベースのバックボーンの一貫性のあるアドバンテージを観察した。
論文 参考訳(メタデータ) (2021-08-11T16:20:38Z) - Efficient Vision Transformers via Fine-Grained Manifold Distillation [96.50513363752836]
視覚変換器のアーキテクチャは多くのコンピュータビジョンタスクで異常な性能を示した。
ネットワーク性能は向上するが、トランスフォーマーはより多くの計算資源を必要とすることが多い。
本稿では,教師のトランスフォーマーから,画像と分割パッチの関係を通して有用な情報を抽出することを提案する。
論文 参考訳(メタデータ) (2021-07-03T08:28:34Z) - AutoFormer: Searching Transformers for Visual Recognition [97.60915598958968]
本稿では,視覚トランスフォーマー検索専用のワンショットアーキテクチャ検索フレームワークであるAutoFormerを提案する。
AutoFormerは、スーパーネットトレーニング中に同じレイヤ内の異なるブロックの重みを絡み合わせる。
我々は、AutoFormer-tiny/small/baseが5.7M/22.9M/53.7Mパラメータを持つImageNetで74.7%/81.7%/82.4%のトップ-1精度を達成したことを示す。
論文 参考訳(メタデータ) (2021-07-01T17:59:30Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - A Survey on Visual Transformer [126.56860258176324]
Transformerは、主に自己認識機構に基づくディープニューラルネットワークの一種である。
本稿では、これらの視覚変換器モデルについて、異なるタスクで分類し、それらの利点と欠点を分析することでレビューする。
論文 参考訳(メタデータ) (2020-12-23T09:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。