論文の概要: Multi-objective hybrid knowledge distillation for efficient deep learning in smart agriculture
- arxiv url: http://arxiv.org/abs/2512.22239v1
- Date: Tue, 23 Dec 2025 15:33:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.9215
- Title: Multi-objective hybrid knowledge distillation for efficient deep learning in smart agriculture
- Title(参考訳): スマート農業における効率的な深層学習のための多目的ハイブリッド知識蒸留
- Authors: Phi-Hung Hoang, Nam-Thuan Trinh, Van-Manh Tran, Thi-Thu-Hong Phan,
- Abstract要約: 本研究では,軽量ながら高性能な畳み込みニューラルネットワークを開発するためのハイブリッド知識蒸留フレームワークを提案する。
提案手法は,ResNet18教師ネットワークの指導のもと,逆残差ブロックと密接な接続性を組み合わせた,カスタマイズされた学生モデルを設計する。
- 参考スコア(独自算出の注目度): 0.05599792629509228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying deep learning models on resource-constrained edge devices remains a major challenge in smart agriculture due to the trade-off between computational efficiency and recognition accuracy. To address this challenge, this study proposes a hybrid knowledge distillation framework for developing a lightweight yet high-performance convolutional neural network. The proposed approach designs a customized student model that combines inverted residual blocks with dense connectivity and trains it under the guidance of a ResNet18 teacher network using a multi-objective strategy that integrates hard-label supervision, feature-level distillation, response-level distillation, and self-distillation. Experiments are conducted on a rice seed variety identification dataset containing nine varieties and further extended to four plant leaf disease datasets, including rice, potato, coffee, and corn, to evaluate generalization capability. On the rice seed variety classification task, the distilled student model achieves an accuracy of 98.56%, which is only 0.09% lower than the teacher model (98.65%), while requiring only 0.68 GFLOPs and approximately 1.07 million parameters. This corresponds to a reduction of about 2.7 times in computational cost and more than 10 times in model size compared with the ResNet18 teacher model. In addition, compared with representative pretrained models, the proposed student reduces the number of parameters by more than 6 times relative to DenseNet121 and by over 80 times compared with the Vision Transformer (ViT) architecture, while maintaining comparable or superior classification accuracy. Consistent performance gains across multiple plant leaf disease datasets further demonstrate the robustness, efficiency, and strong deployment potential of the proposed framework for hardware-limited smart agriculture systems.
- Abstract(参考訳): リソース制約のあるエッジデバイスにディープラーニングモデルをデプロイすることは、計算効率と認識精度のトレードオフのため、スマート農業において依然として大きな課題である。
そこで本研究では,軽量ながら高性能な畳み込みニューラルネットワークを開発するためのハイブリッド知識蒸留フレームワークを提案する。
提案手法は,ResNet18教師ネットワークの指導のもと,逆転残差ブロックと密接な接続性を組み合わせた生徒モデルを構築し,ハードラベルの監督,機能レベルの蒸留,応答レベルの蒸留,自己蒸留を統合した多目的戦略を用いて学習する。
イネ,ジャガイモ,コーヒー,とうもろこしを含む4種の植物葉病データセットにさらに拡張して,9品種を含むイネ種子品種識別データセットを用いて,一般化能力の評価を行った。
水稲品種分類作業では、蒸留学生モデルは98.56%の精度を達成し、教師モデルよりも0.09%低い(98.65%)が、0.68 GFLOPsと約1.07万のパラメータしか必要としない。
これはResNet18の教師モデルに比べて計算コストが約2.7倍、モデルサイズが10倍以上の削減に相当する。
さらに,DenseNet121の6倍以上のパラメータ数とViTアーキテクチャの80倍以上のパラメータ数を削減し,比較あるいは優れた分類精度を維持した。
複数の植物葉病データセットの一貫性のある性能向上は、ハードウェア限定のスマート農業システムのためのフレームワークの堅牢性、効率性、および強力な展開可能性をさらに示している。
関連論文リスト
- A Domain-Adapted Lightweight Ensemble for Resource-Efficient Few-Shot Plant Disease Classification [0.0]
ドメイン適応型MobileNetV2モデルとMobileNetV3モデルを組み合わせた数ショットの学習手法を提案する。
分類タスクには、注意機構を付加したBi-LSTM分類器を通す。
1発から15発のパフォーマンスを継続的に改善し、15発で98.23+-0.33%に達した。
また、以前のSOTAの精度も96.4%向上し、15ショットの学習で99.72%を記録した。
論文 参考訳(メタデータ) (2025-12-15T15:17:29Z) - Involution-Infused DenseNet with Two-Step Compression for Resource-Efficient Plant Disease Classification [0.0]
本研究では,重み付けと知識蒸留を統合した2段階モデル圧縮手法を提案する。
その結果、ResNet50sは、PandVillageとPaddyLeafのデータセットで99.55%と98.99%の精度を達成した。
論文 参考訳(メタデータ) (2025-05-31T22:43:23Z) - Learning from Stochastic Teacher Representations Using Student-Guided Knowledge Distillation [64.15918654558816]
教師表現のフィルタリングと重み付けのための自己蒸留(SSD)訓練戦略を導入し,タスク関連表現のみから抽出する。
UCR Archiveのウェアラブル/バイオサインデータセット、HARデータセット、画像分類データセットなどの実世界の感情コンピューティングに関する実験結果は、提案したSSD手法が最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2025-04-19T14:08:56Z) - Design and Implementation of FourCropNet: A CNN-Based System for Efficient Multi-Crop Disease Detection and Management [3.4161054453684705]
本研究では,複数の作物の病原体を検出するための新しいディープラーニングモデルであるFourCropNetを提案する。
FourCropNetは、Grapeの99.7%、Cornの99.5%、組み合わせたデータセットの95.3%の最高精度を達成した。
論文 参考訳(メタデータ) (2025-03-11T12:00:56Z) - Improved Cotton Leaf Disease Classification Using Parameter-Efficient Deep Learning Framework [0.0]
綿花は「白金」と呼ばれ、重要な生産課題に直面している。
この課題に対処するために、ディープラーニングと機械学習の技術が研究されている。
我々はMobileNetからトレーニング可能なレイヤのサブセットを統合する革新的なディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-23T14:01:10Z) - Learning Lightweight Object Detectors via Multi-Teacher Progressive
Distillation [56.053397775016755]
本稿では,教師検出器の知識を学生に段階的に伝達する,知識蒸留への逐次的アプローチを提案する。
私たちの知識を最大限に活用するために、私たちはTransformerベースの教師検出器から、畳み込みベースの学生まで、初めて知識を抽出しました。
論文 参考訳(メタデータ) (2023-08-17T17:17:08Z) - HomoDistil: Homotopic Task-Agnostic Distillation of Pre-trained
Transformers [49.79405257763856]
本稿では,タスク非依存蒸留に焦点をあてる。
これは、計算コストとメモリフットプリントを小さくして、様々なタスクで簡単に微調整できるコンパクトな事前訓練モデルを生成する。
本稿では, 反復刈り込みによる新規なタスク非依存蒸留法であるHomotopic Distillation (HomoDistil)を提案する。
論文 参考訳(メタデータ) (2023-02-19T17:37:24Z) - Knowledge Distillation: A Survey [87.51063304509067]
ディープニューラルネットワークは、特にコンピュータビジョンタスクにおいて、産業と学術の両方で成功している。
リソースが限られているデバイスに、これらの面倒なディープモデルをデプロイすることは難しい。
知識蒸留は、大きな教師モデルから小さな学生モデルを効果的に学習する。
論文 参考訳(メタデータ) (2020-06-09T21:47:17Z) - Neural Networks Are More Productive Teachers Than Human Raters: Active
Mixup for Data-Efficient Knowledge Distillation from a Blackbox Model [57.41841346459995]
我々は,ブラックボックス教師モデルから知識を抽出し,学生の深層ニューラルネットワークを視覚認識のために訓練する方法を,データ効率のよい方法で研究する。
混合学習とアクティブラーニングを融合した手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T05:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。