論文の概要: Transformer based Multi-task Fusion Network for Food Spoilage Detection and Shelf life Forecasting
- arxiv url: http://arxiv.org/abs/2601.13665v1
- Date: Tue, 20 Jan 2026 07:07:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.195059
- Title: Transformer based Multi-task Fusion Network for Food Spoilage Detection and Shelf life Forecasting
- Title(参考訳): トランスフォーマーを用いた食品スポイラージ検出とシェルフ寿命予測のためのマルチタスクフュージョンネットワーク
- Authors: Mounika Kanulla, Rajasree Dadigi, Sailaja Thota, Vivek Yelleti,
- Abstract要約: 本稿では,CNNとLSTMとDeiT変換器を同時に組み合わせた融合型アーキテクチャを提案する。
CNN+CNN-LSTMとCNN+DeiT Transformerは、CNN、VGG16、ResNet50、Capsule Networks、DeiT Transformerなどのディープラーニングモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Food wastage is one of the critical challenges in the agricultural supply chain, and accurate and effective spoilage detection can help to reduce it. Further, it is highly important to forecast the spoilage information. This aids the longevity of the supply chain management in the agriculture field. This motivated us to propose fusion based architectures by combining CNN with LSTM and DeiT transformer for the following multi-tasks simultaneously: (i) vegetable classification, (ii) food spoilage detection, and (iii) shelf life forecasting. We developed a dataset by capturing images of vegetables from their fresh state until they were completely spoiled. From the experimental analysis it is concluded that the proposed fusion architectures CNN+CNN-LSTM and CNN+DeiT Transformer outperformed several deep learning models such as CNN, VGG16, ResNet50, Capsule Networks, and DeiT Transformers. Overall, CNN + DeiT Transformer yielded F1-score of 0.98 and 0.61 in vegetable classification and spoilage detection respectively and mean squared error (MSE) and symmetric mean absolute percentage error (SMAPE) of 3.58, and 41.66% respectively in spoilage forecasting. Further, the reliability of the fusion models was validated on noisy images and integrated with LIME to visualize the model decisions.
- Abstract(参考訳): 食料の浪費は農業サプライチェーンにおける重要な課題の一つであり、正確で効果的な腐敗検知はそれを減らすのに役立つ。
さらに, 劣化情報を予測することが重要である。
これは農業分野におけるサプライチェーン管理の長寿を支えている。
これにより、CNNとLSTMとDeiT変換器を同時に組み合わせたフュージョンベースアーキテクチャを提案する動機となった。
(i)野菜の分類
二 食品の腐敗検知、及び
(三)棚の寿命予測
本研究は, 生鮮野菜のイメージを, 完全に腐るまでキャプチャーすることで, データセットを構築した。
実験結果から,CNN+CNN-LSTMおよびCNN+DeiT変換器は,CNN,VGG16,ResNet50,Capsule Networks,DeiT変換器などの深層学習モデルよりも優れていた。
総合的にCNN+DeiT変換器は野菜の分類では0.98と0.61のF1スコア、平均二乗誤差(MSE)と対称平均絶対パーセンテージ誤差(SMAPE)はそれぞれ3.58と41.66%のF1スコアを得た。
さらに、融合モデルの信頼性をノイズ画像上で検証し、LIMEと統合してモデル決定を可視化した。
関連論文リスト
- CNN-TFT explained by SHAP with multi-head attention weights for time series forecasting [0.6019777076722422]
本稿では,畳み込み特徴抽出と時間融合変換器を組み合わせたハイブリッドアーキテクチャを提案する。
CNN-TFTは、確立されたディープラーニングモデルよりも優れており、平均絶対パーセンテージエラーは2.2%である。
論文 参考訳(メタデータ) (2025-10-08T10:08:28Z) - Benchmarking Federated Learning for Throughput Prediction in 5G Live Streaming Applications [5.026196568145574]
本稿では,現実的な5Gエッジシナリオにおけるスループット予測のためのフェデレーション学習戦略の総合的なベンチマークを行う。
FedBNは、非IID条件下で一貫してロバストな性能を提供する。
LSTMとTransformerモデルは、CNNベースのベースラインを最大80%のR2スコアで上回る。
論文 参考訳(メタデータ) (2025-08-11T21:27:40Z) - Hybrid Knowledge Transfer through Attention and Logit Distillation for On-Device Vision Systems in Agricultural IoT [0.0]
この研究は、精密農業におけるリアルタイムでエネルギー効率の高い作物モニタリングを推進している。
これは、エッジデバイス上でViTレベルの診断精度を実現する方法を示している。
論文 参考訳(メタデータ) (2025-04-21T06:56:41Z) - Fusion of Satellite Images and Weather Data with Transformer Networks
for Downy Mildew Disease Detection [3.6868861317674524]
作物病は農業生産量と品質に大きな影響を及ぼす。
本稿では,3つのトランスを用いたデータ融合を実現するための新しい手法を提案する。
このアーキテクチャは、視覚変換器と2つの変換器エンコーダという3つの主要コンポーネントで構築されており、画像と気象の両方を融合させることができる。
論文 参考訳(メタデータ) (2022-09-06T19:55:16Z) - Magic ELF: Image Deraining Meets Association Learning and Transformer [63.761812092934576]
本稿では,CNN と Transformer を統合化して,画像デライニングにおける学習のメリットを活用することを目的とする。
降雨除去と背景復旧を関連づける新しいマルチインプット・アテンション・モジュール (MAM) を提案する。
提案手法(ELF)は,最先端手法(MPRNet)を平均0.25dB向上させる。
論文 参考訳(メタデータ) (2022-07-21T12:50:54Z) - EATFormer: Improving Vision Transformer Inspired by Evolutionary Algorithm [111.17100512647619]
本稿では、実証された実用的な進化的アルゴリズム(EA)と類似したビジョントランスフォーマーの合理性を説明する。
本稿では,EA ベースのトランス (EAT) ブロックのみを含む新しいピラミッド EATFormer バックボーンを提案する。
画像分類,下流タスク,説明実験に関する大規模かつ定量的な実験は,我々のアプローチの有効性と優位性を示すものである。
論文 参考訳(メタデータ) (2022-06-19T04:49:35Z) - Vision Transformers For Weeds and Crops Classification Of High
Resolution UAV Images [3.1083892213758104]
ビジョントランスフォーマー(ViT)モデルは、畳み込み操作を適用することなく、競争またはより良い結果を達成することができる。
実験の結果,ラベル付きトレーニングデータでは,最新のCNNモデルと比較して,ViTモデルの方が優れていた。
論文 参考訳(メタデータ) (2021-09-06T19:58:54Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。