論文の概要: Deep Learning-Based Meat Freshness Detection with Segmentation and OOD-Aware Classification
- arxiv url: http://arxiv.org/abs/2603.00368v1
- Date: Fri, 27 Feb 2026 23:14:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.159936
- Title: Deep Learning-Based Meat Freshness Detection with Segmentation and OOD-Aware Classification
- Title(参考訳): セグメンテーションとOOD認識による深層学習による肉の鮮度検出
- Authors: Hutama Arif Bramantyo, Mukarram Ali Faridi, Rui Chen, Clarissa Harris, Yin Sun,
- Abstract要約: このフレームワークはパッケージ化されたミートデータセットとアンパッケージされたミートデータセットの両方をサポートしている。
このシステムは、4つの非分布(ID)肉クラスを分類し、低信頼をNo ResultとしてフラグするOOD(out-of-distriion)を意識した禁制機構を使用する。
- 参考スコア(独自算出の注目度): 7.732388903082693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we present a meat freshness classification framework from Red-Green-Blue (RGB) images that supports both packaged and unpackaged meat datasets. The system classifies four in-distribution (ID) meat classes and uses an out-of-distribution (OOD)-aware abstention mechanism that flags low-confidence samples as No Result. The pipeline combines U-Net-based segmentation with deep feature classifiers. Segmentation is used as a preprocessing step to isolate the meat region and reduce background, producing more consistent inputs for classification. The segmentation module achieved an Intersection over Union (IoU) of 75% and a Dice coefficient of 82%, producing standardized inputs for the classification stage. For classification, we benchmark five backbones: Residual Network-50 (ResNet-50), Vision Transformer-Base/16 (ViT-B/16), Swin Transformer-Tiny (Swin-T), EfficientNet-B0, and MobileNetV3-Small. We use nested 5x3 cross-validation (CV) for model selection and hyperparameter tuning. On the held-out ID test set, EfficientNet-B0 achieves the highest accuracy (98.10%), followed by ResNet-50 and MobileNetV3-Small (both 97.63%) and Swin-T (97.51%), while ViT-B/16 is lower (94.42%). We additionally evaluate OOD scoring and thresholding using standard OOD metrics and sensitivity analysis over the abstention threshold. Finally, we report on-device latency using TensorFlow Lite (TFLite) on a smartphone, highlighting practical accuracy-latency trade-offs for future deployment.
- Abstract(参考訳): 本研究では,赤緑青(RGB)画像からの肉の鮮度分類フレームワークを提案する。
このシステムは、4つの非分布(ID)肉クラスを分類し、低信頼度サンプルをNo ResultとしてフラグするOOD (out-of-distriion)-aware abstentionメカニズムを使用する。
このパイプラインは、U-Netベースのセグメンテーションと深い特徴分類器を組み合わせる。
セグメンテーションは、肉の領域を分離し、背景を減らし、分類のためのより一貫した入力を生成するための前処理ステップとして使用される。
セグメンテーションモジュールは75%のIoU(Intersection over Union)と82%のDice係数を達成し、分類段階の標準化された入力を生み出した。
分類にはResidual Network-50 (ResNet-50), Vision Transformer-Base/16 (ViT-B/16), Swin Transformer-Tiny (Swin-T), EfficientNet-B0, MobileNetV3-Smallの5つのバックボーンをベンチマークする。
モデル選択とハイパーパラメータチューニングにネストした5x3クロスバリデーション(CV)を用いる。
ホールドアウトIDテストセットでは、EfficientNet-B0が98.10%、ResNet-50とMobileNetV3-Smallが97.63%、Swin-Tが97.51%、ViT-B/16が94.42%である。
さらに,標準OOD測定値を用いてOODのスコアリングとしきい値のしきい値の評価を行い,保持閾値に対する感度分析を行った。
最後に、スマートフォン上でTensorFlow Lite(TFLite)を使用してデバイス上でのレイテンシを報告し、将来のデプロイメントにおける実用的な精度とレイテンシのトレードオフを強調した。
関連論文リスト
- dVoting: Fast Voting for dLLMs [71.572316901001]
拡散大言語モデル(dLLMs)は自己回帰モデリングを超えた新しいパラダイムである。
dLLMは任意の位置で任意のトークンを並列に生成できるため、並列テストタイムスケーリングには大きな可能性がある。
トレーニングなしで推論能力を高める高速投票手法であるdVotingを導入する。
論文 参考訳(メタデータ) (2026-02-12T16:35:05Z) - Transfer Learning-Based CNN Models for Plant Species Identification Using Leaf Venation Patterns [0.0]
本研究では,3つのディープラーニングアーキテクチャ(ResNet50,MobileNetV2,EfficientNetB0)の有効性を評価する。
論文 参考訳(メタデータ) (2025-09-03T21:23:09Z) - Advanced U-Net Architectures with CNN Backbones for Automated Lung Cancer Detection and Segmentation in Chest CT Images [0.0]
本研究では, 各種畳み込みニューラルネットワーク(CNN)のバックボーンと統合したU-Netアーキテクチャの有効性について検討し, 胸部CT画像における肺がんの自動検出とセグメンテーションについて検討した。
U-Netモデルは3つのCNNバックボーン(ResNet50、VGG16、Xception)で開発された。
分類において、U-Net with Xceptionを用いたCNNモデルは99.1%の精度、99.74パーセントのリコール、99.42パーセントのF1スコアを達成した。
論文 参考訳(メタデータ) (2025-07-14T04:08:33Z) - Fully Attentional Networks with Self-emerging Token Labeling [108.53230681047617]
我々は、意味的に意味のあるパッチトークンラベルを生成するためにFANトークンラベル(FAN-TL)をトレーニングし、その後、トークンラベルとオリジナルクラスラベルの両方を使用するFAN学生モデルトレーニングステージを作成した。
提案したSTLフレームワークでは,ImageNet-1KおよびImageNet-C上で84.8%のTop-1精度と42.1%のmCEを実現し,余分なデータを使用しないImageNet-A(46.1%)とImageNet-R(56.6%)の新たな最先端設定を行う。
論文 参考訳(メタデータ) (2024-01-08T12:14:15Z) - SINF: Semantic Neural Network Inference with Semantic Subgraphs [3.767257257405998]
本稿では,新しい識別能力スコア(DCS)に基づくディープニューラルネットワーク(DNN)における意味的部分グラフを生成するセマンティック推論(SINF)を提案する。
CIFAR100とImageNetデータセットのサブセットを用いて訓練したVGG16,VGG19,ResNet50 DNNの性能評価を行った。
論文 参考訳(メタデータ) (2023-10-02T14:51:10Z) - CFDP: Common Frequency Domain Pruning [0.3021678014343889]
本稿では,周波数領域を経由したモデルプルーニングのための新しいエンドツーエンドパイプラインを提案する。
我々はCIFAR-10で、GoogLeNetが95.25%、すなわちオリジナルのモデルから+0.2%の精度で達成した。
特筆すべきパフォーマンスに加えて、CFDPによって生成されたモデルは、様々な構成に対して堅牢性を示す。
論文 参考訳(メタデータ) (2023-06-07T04:49:26Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Deep Multi-Scale Representation Learning with Attention for Automatic
Modulation Classification [11.32380278232938]
畳み込み深部畳み込みニューラルネットワークをベースとしたAMCにおいて,カーネルサイズを大きくすることで,経験的な改善が得られた。
本稿では,大規模なカーネルサイズとSE機構(SE-MSFN)を備えたマルチスケール機能ネットワークを提案する。
SE-MSFNは、よく知られたRADIOML 2018.01Aデータセットで最先端の分類性能を達成する。
論文 参考訳(メタデータ) (2022-08-31T07:26:09Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - End-to-End Sensitivity-Based Filter Pruning [49.61707925611295]
本稿では,各層間のフィルタの重要度を学習するための感度に基づくフィルタプルーニングアルゴリズム(SbF-Pruner)を提案する。
提案手法はフィルタ重みからスコアを学習し,各層のフィルタ間の相関を考慮できる。
論文 参考訳(メタデータ) (2022-04-15T10:21:05Z) - Focal Modulation Networks [105.93086472906765]
自己注意(SA)は完全に焦点変調ネットワーク(FocalNet)に置き換えられる
ImageNet-1Kの精度は82.3%、83.9%である。
FocalNetsは下流のタスクに転送する際、顕著な優位性を示す。
論文 参考訳(メタデータ) (2022-03-22T17:54:50Z) - Attention Mechanism Meets with Hybrid Dense Network for Hyperspectral
Image Classification [6.946336514955953]
畳み込みニューラルネットワーク(CNN)は、実際より適している。
固定化されたカーネルサイズは、従来のCNNが柔軟でも、特徴学習にも適さないため、分類精度に影響を及ぼす。
提案手法は,3Dと2Dインセプションネットのコアアイデアとアテンション機構を組み合わせることで,ハイブリッドシナリオにおけるHSIC CNNの性能向上を図ることを目的としている。
AfNetは、各ブロックに異なるカーネルを持つ3つのアテンションフューズされた並列ハイブリッドサブネットをベースとして、最終的な地上トラスマップを強化するために高レベルな特徴を繰り返し利用する。
論文 参考訳(メタデータ) (2022-01-04T06:30:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。