論文の概要: Standardizing and Centralizing Datasets to Enable Efficient Training of
Agricultural Deep Learning Models
- arxiv url: http://arxiv.org/abs/2208.02707v1
- Date: Thu, 4 Aug 2022 15:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:46:31.958186
- Title: Standardizing and Centralizing Datasets to Enable Efficient Training of
Agricultural Deep Learning Models
- Title(参考訳): 農業ディープラーニングモデルの効率的なトレーニングを可能にするデータセットの標準化と集中化
- Authors: Amogh Joshi, Dario Guevara, Mason Earles
- Abstract要約: ディープラーニングモデルは通常、より一般的な非農業的なデータセットに適したモデルウェイトを使用して、農業タスクに微調整される。
3つの異なるタスクのために、さまざまな公開データセットを収集し、それらを標準化し、標準トレーニングと評価パイプラインを構築します。
深層学習によく用いられる手法を用いて,多くの実験を行ったが,その分野固有の農業分野への応用については明らかにされていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, deep learning models have become the standard for
agricultural computer vision. Such models are typically fine-tuned to
agricultural tasks using model weights that were originally fit to more
general, non-agricultural datasets. This lack of agriculture-specific
fine-tuning potentially increases training time and resource use, and decreases
model performance, leading an overall decrease in data efficiency. To overcome
this limitation, we collect a wide range of existing public datasets for three
distinct tasks, standardize them, and construct standard training and
evaluation pipelines, providing us with a set of benchmarks and pretrained
models. We then conduct a number of experiments using methods which are
commonly used in deep learning tasks, but unexplored in their domain-specific
applications for agriculture. Our experiments guide us in developing a number
of approaches to improve data efficiency when training agricultural deep
learning models, without large-scale modifications to existing pipelines. Our
results demonstrate that even slight training modifications, such as using
agricultural pretrained model weights, or adopting specific spatial
augmentations into data processing pipelines, can significantly boost model
performance and result in shorter convergence time, saving training resources.
Furthermore, we find that even models trained on low-quality annotations can
produce comparable levels of performance to their high-quality equivalents,
suggesting that datasets with poor annotations can still be used for training,
expanding the pool of currently available datasets. Our methods are broadly
applicable throughout agricultural deep learning, and present high potential
for significant data efficiency improvements.
- Abstract(参考訳): 近年、ディープラーニングモデルは農業用コンピュータビジョンの標準となっている。
このようなモデルは通常、より一般的な非農業的なデータセットに適したモデルウェイトを使用して、農業タスクに微調整される。
この農業固有の微調整の欠如により、トレーニング時間とリソース使用が向上し、モデルパフォーマンスが低下し、データ効率が全体的に低下する可能性がある。
この制限を克服するために、私たちは3つの異なるタスクのための既存のデータセットを幅広く収集し、それらを標準化し、標準のトレーニングと評価パイプラインを構築し、ベンチマークと事前訓練されたモデルのセットを提供します。
次に、ディープラーニングタスクで一般的に使用される手法を用いて、多くの実験を行うが、その分野固有の農業応用では探索されていない。
我々の実験は、既存のパイプラインに大規模な変更を加えることなく、農業のディープラーニングモデルを訓練する際のデータ効率を改善するための多くのアプローチの開発をガイドする。
農業用事前訓練モデル重みの使用やデータ処理パイプラインへの特定の空間拡張など、わずかなトレーニング変更でも、モデル性能を大幅に向上させ、コンバージェンス時間の短縮とトレーニングリソースの節約が期待できることを示した。
さらに、低品質アノテーションでトレーニングされたモデルでさえ、高品質な同等のモデルに匹敵するレベルのパフォーマンスが得られることが分かり、アノテーションの弱いデータセットをトレーニングに使用して、現在利用可能なデータセットのプールを広げることが可能であることを示唆しています。
本手法は農業深層学習全般に広く適用可能であり,データ効率の向上の可能性が高い。
関連論文リスト
- Transfer Learning with Foundational Models for Time Series Forecasting using Low-Rank Adaptations [0.0]
本研究はLlama Lora-Integrated Autorregresive ModelであるLLIAMを提案する。
低ランク適応は、微調整フェーズとして知られる様々な時系列データセットでモデルの知識を高めるために使用される。
論文 参考訳(メタデータ) (2024-10-15T12:14:01Z) - Scaling Laws Do Not Scale [54.72120385955072]
最近の研究によると、データセットのサイズが大きくなると、そのデータセットでトレーニングされたモデルのパフォーマンスが向上する。
このスケーリング法則の関係は、モデルのアウトプットの質を異なる集団がどのように認識するかと一致しないパフォーマンスを測定するために使われる指標に依存する、と我々は主張する。
異なるコミュニティは、互いに緊張関係にある価値を持ち、モデル評価に使用されるメトリクスについて、困難で、潜在的に不可能な選択をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-07-05T15:32:21Z) - Phased Data Augmentation for Training a Likelihood-Based Generative Model with Limited Data [0.0]
生成モデルは現実的なイメージの作成に優れていますが、トレーニングのための広範なデータセットに依存しているため、大きな課題があります。
現在のデータ効率の手法はGANアーキテクチャに重点を置いており、他の生成モデルの訓練にギャップを残している。
位相データ拡張(phased data augmentation)は、このギャップに対処する新しい手法であり、データ分散に固有の変更を加えることなく、限られたデータシナリオでのトレーニングを最適化する。
論文 参考訳(メタデータ) (2023-05-22T03:38:59Z) - On the Costs and Benefits of Adopting Lifelong Learning for Software
Analytics -- Empirical Study on Brown Build and Risk Prediction [17.502553991799832]
本稿では,ユビソフトにおける産業用ユースケースにおける生涯学習(LL)の利用について検討する。
LLは、新しいデータを使用して古いモデルを段階的に更新するインクリメンタルラーナを使用して、MLベースのソフトウェア分析ツールを継続的に構築し、メンテナンスするために使用される。
論文 参考訳(メタデータ) (2023-05-16T21:57:16Z) - INGENIOUS: Using Informative Data Subsets for Efficient Pre-Training of
Language Models [40.54353850357839]
トレーニングコーパスの高度に代表的なサブセットを選択するために、サブモジュラー最適化を利用する方法を示す。
その結果,完全学習モデルの性能の最大$sim99%が得られた。
論文 参考訳(メタデータ) (2023-05-11T09:24:41Z) - Evaluating and Crafting Datasets Effective for Deep Learning With Data
Maps [0.0]
大規模なデータセットのトレーニングには、過剰なシステムリソースと実現不可能な時間を要することが多い。
教師付き学習では、大規模なデータセットはサンプルを手動でラベル付けするのにより多くの時間を必要とする。
そこで本研究では,初期のトレーニングセッションの後に,分散モデルの精度に匹敵する精度で,より小さなデータセットをキュレートする手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T03:30:18Z) - Teacher Guided Training: An Efficient Framework for Knowledge Transfer [86.6784627427194]
高品質なコンパクトモデルを訓練するための教師誘導訓練(TGT)フレームワークを提案する。
TGTは、教師が基礎となるデータドメインの優れた表現を取得したという事実を利用する。
TGTは複数の画像分類ベンチマークやテキスト分類や検索タスクの精度を向上させることができる。
論文 参考訳(メタデータ) (2022-08-14T10:33:58Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。