論文の概要: MobileMold: A Smartphone-Based Microscopy Dataset for Food Mold Detection
- arxiv url: http://arxiv.org/abs/2603.01944v1
- Date: Mon, 02 Mar 2026 14:57:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.921007
- Title: MobileMold: A Smartphone-Based Microscopy Dataset for Food Mold Detection
- Title(参考訳): MobileMold:食品型検出のためのスマートフォンベースの顕微鏡データセット
- Authors: Dinh Nam Pham, Leonard Prokisch, Bennet Meyer, Jonas Thumbs,
- Abstract要約: 食品カビ検出と食品分類のためのオープンなスマートフォンベースの顕微鏡データセットであるMobileMoldを紹介した。
MobileMoldには、11種類の食品、スマートフォン4つ、顕微鏡3つ、現実世界のさまざまな条件にまたがる4,941個のハンドヘルド顕微鏡画像が含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smartphone clip-on microscopes turn everyday devices into low-cost, portable imaging systems that can even reveal fungal structures at the microscopic level, enabling mold inspection beyond unaided visual checks. In this paper, we introduce MobileMold, an open smartphone-based microscopy dataset for food mold detection and food classification. MobileMold contains 4,941 handheld microscopy images spanning 11 food types, 4 smartphones, 3 microscopes, and diverse real-world conditions. Beyond the dataset release, we establish baselines for (i) mold detection and (ii) food-type classification, including a multi-task setting that predicts both attributes. Across multiple pretrained deep learning architectures and augmentation strategies, we obtain near-ceiling performance (accuracy = 0.9954, F1 = 0.9954, MCC = 0.9907), validating the utility of our dataset for detecting food spoilage. To increase transparency, we complement our evaluation with saliency-based visual explanations highlighting mold regions associated with the model's predictions. MobileMold aims to contribute to research on accessible food-safety sensing, mobile imaging, and exploring the potential of smartphones enhanced with attachments.
- Abstract(参考訳): スマートフォンのクリップオン顕微鏡は、日常のデバイスを低コストでポータブルなイメージングシステムに変える。
本稿では,食品カビ検出と食品分類のためのオープン・スマートフォン・マイクロスコープ・データセットであるMobileMoldを紹介する。
MobileMoldには、11種類の食品、スマートフォン4つ、顕微鏡3つ、現実世界のさまざまな条件にまたがる4,941個のハンドヘルド顕微鏡画像が含まれている。
データセットのリリースを超えて、ベースラインを確立します。
(i)モールド検出およびモールド検出
(ii)両方の属性を予測するマルチタスク設定を含む食品タイプの分類。
複数の事前訓練されたディープラーニングアーキテクチャと拡張戦略を網羅して,食品の腐敗を検出するためのデータセットの有用性を検証するため,ニアシーリング性能(精度 = 0.9954, F1 = 0.9954, MCC = 0.9907)を得る。
透明性を高めるために,モデルの予測に付随する型領域を強調表示する唾液度に基づく視覚的説明を用いて,評価を補完する。
MobileMoldは、アクセス可能な食品の安全検知、モバイルイメージング、およびアタッチメントで強化されたスマートフォンの可能性についての研究に貢献することを目指している。
関連論文リスト
- MedROV: Towards Real-Time Open-Vocabulary Detection Across Diverse Medical Imaging Modalities [89.81463562506637]
医用画像のための最初のリアルタイムオープン語彙検出モデルであるMedROVを紹介する。
対照的な学習とクロスモーダル表現を活用することで、MedROVは既知の構造と新しい構造の両方を効果的に検出する。
論文 参考訳(メタデータ) (2025-11-25T18:59:53Z) - PixCell: A generative foundation model for digital histopathology images [49.00921097924924]
PixCellは,病理組織学における最初の拡散ベース生成基盤モデルである。
われわれはPanCan-30MでPixCellをトレーニングした。
論文 参考訳(メタデータ) (2025-06-05T15:14:32Z) - DiffKillR: Killing and Recreating Diffeomorphisms for Cell Annotation in Dense Microscopy Images [105.46086313858062]
DiffKillRは、アーチェタイプマッチングと画像登録タスクの組み合わせとして、セルアノテーションを再構成する新しいフレームワークである。
DiffKillRは、大規模な顕微鏡画像間でアノテーションを効率よく伝播し、広範囲な手動ラベリングの必要性を減らす。
我々はDiffKillRの理論的性質について論じ、それを3つの顕微鏡タスクで検証し、既存の教師付き・半教師なし・教師なしの手法に対する利点を実証する。
論文 参考訳(メタデータ) (2024-10-04T00:38:29Z) - How Much You Ate? Food Portion Estimation on Spoons [63.611551981684244]
現在の画像に基づく食品部分推定アルゴリズムは、ユーザが食事の画像を1、2回取ることを前提としている。
本稿では,静止型ユーザ向けカメラを用いて,機器上の食品の追跡を行う革新的なソリューションを提案する。
本システムは,スープやシチューなどの液状固形不均一混合物の栄養含量の推定に信頼性が高い。
論文 参考訳(メタデータ) (2024-05-12T00:16:02Z) - Masked Autoencoders for Microscopy are Scalable Learners of Cellular Biology [2.7280901660033643]
本研究は、弱教師付き分類器と自己教師付きマスク付きオートエンコーダ(MAE)のスケーリング特性について検討する。
以上の結果から,ViTをベースとしたMAEは,様々なタスクにおいて弱い教師付き分類器よりも優れており,公的なデータベースから得られた既知の生物学的関係を思い出すと,11.5%の相対的な改善が達成されることがわかった。
我々は、異なる数のチャネルと順序の画像を推論時に入力できる新しいチャネルに依存しないMAEアーキテクチャ(CA-MAE)を開発した。
論文 参考訳(メタデータ) (2024-04-16T02:42:06Z) - Grad-CAMO: Learning Interpretable Single-Cell Morphological Profiles from 3D Cell Painting Images [0.0]
教師付き特徴抽出器のための新しい単一セル解釈可能性スコアであるGrad-CAMOを紹介する。
Grad-CAMOは、関心の細胞と背景の細胞に集中しているモデルの注意率を測定する。
論文 参考訳(メタデータ) (2024-03-26T11:48:37Z) - Adaptive Visual Imitation Learning for Robotic Assisted Feeding Across Varied Bowl Configurations and Food Types [17.835835270751176]
ロボット支援給餌(RAF)のための空間的注意モジュールを備えた新しい視覚模倣ネットワークを提案する。
本研究では,視覚認識と模倣学習を統合して,ロボットがスクーピング中に多様なシナリオを扱えるようにするためのフレームワークを提案する。
AVIL(adaptive visual mimicion learning, 適応的視覚模倣学習)と呼ばれる我々のアプローチは、異なるボウル構成にまたがる適応性と堅牢性を示す。
論文 参考訳(メタデータ) (2024-03-19T16:40:57Z) - Food Image Classification and Segmentation with Attention-based Multiple
Instance Learning [51.279800092581844]
本稿では,食品画像分類とセマンティックセグメンテーションモデルを訓練するための弱教師付き方法論を提案する。
提案手法は、注意に基づくメカニズムと組み合わせて、複数のインスタンス学習アプローチに基づいている。
提案手法の有効性を検証するため,FoodSeg103データセット内の2つのメタクラスについて実験を行った。
論文 参考訳(メタデータ) (2023-08-22T13:59:47Z) - Deep-learning Assisted Detection and Quantification of (oo)cysts of Giardia and Cryptosporidium on Smartphone Microscopy Images [0.7508386479587535]
我々は,GiardiaとCryptosporidiumの(o)嚢胞を検出する4つの最先端物体検出器の性能を評価した。
深層学習モデルは、その有効性と限界を探求するために用いられた。
以上の結果から, 深層学習モデルでは, 明視野顕微鏡画像データセットの方が精度がよいが, スマートフォンの顕微鏡による予測は, 非専門家の予測性能に匹敵することがわかった。
論文 参考訳(メタデータ) (2023-04-11T16:58:59Z) - Learning multi-scale functional representations of proteins from
single-cell microscopy data [77.34726150561087]
局所化分類に基づいて訓練された単純な畳み込みネットワークは、多様な機能情報をカプセル化したタンパク質表現を学習できることを示す。
また,生物機能の異なるスケールでタンパク質表現の質を評価するためのロバストな評価戦略を提案する。
論文 参考訳(メタデータ) (2022-05-24T00:00:07Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Smart mobile microscopy: towards fully-automated digitization [0.0]
本稿では,最も価値のある視覚情報の自動デジタル化を目的とした,スマートな移動顕微鏡の概念を提案する。
我々は、自動顕微鏡設定制御とオートフォーカス、インフォーカスフィルタリング、フォーカススタッキングといった古典的な技術を組み合わせることでこれを実現している。
論文 参考訳(メタデータ) (2021-05-24T09:55:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。