論文の概要: VeriMedi: Pill Identification using Proxy-based Deep Metric Learning and
Exact Solution
- arxiv url: http://arxiv.org/abs/2104.11231v1
- Date: Thu, 22 Apr 2021 06:52:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 13:16:02.151239
- Title: VeriMedi: Pill Identification using Proxy-based Deep Metric Learning and
Exact Solution
- Title(参考訳): VeriMedi: Proxy-based Deep Metric Learning and Exact Solution を用いたピア同定
- Authors: Tekin Evrim Ozmermer, Viktors Roze, Stanislavs Hilcuks, Alina
Nescerecka
- Abstract要約: このソリューションには、セグメンテーションと識別を行う2つの連続接続型ディープラーニングソリューションがある。
セグメンテーションソリューションは、マスクR-CNNモデルを使用してバイアル画像内の各ピルのマスクを作成し、その後、セグメンテーションと作物を丸薬を作成し、背景をぼやけます。
生成された埋め込みベクトルは、1つの丸薬イメージを予測するために正確なソリューションで訓練された1層の完全に接続されたネットワークに供給されます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present the system that we have developed for the identification and
verification of pills using images that are taken by the VeriMedi device. The
VeriMedi device is an Internet of Things device that takes pictures of a filled
pill vial from the bottom of the vial and uses the solution that is presented
in this research to identify the pills in the vials. The solution has two
serially connected deep learning solutions which do segmentation and
identification. The segmentation solution creates the masks for each pill in
the vial image by using the Mask R-CNN model, then segments and crops the pills
and blurs the background. After that, the segmented pill images are sent to the
identification solution where a Deep Metric Learning model that is trained with
Proxy Anchor Loss (PAL) function generates embedding vectors for each pill
image. The generated embedding vectors are fed into a one-layer fully connected
network that is trained with the exact solution to predict each single pill
image. Then, the aggregation/verification function aggregates the multiple
predictions coming from multiple single pill images and verifies the
correctness of the final prediction with respect to predefined rules. Besides,
we enhanced the PAL with a better proxy initialization that increased the
performance of the models and let the model learn the new classes of images
continually without retraining the model with the whole dataset. When the model
that is trained with initial classes is retrained only with new classes, the
accuracy of the model increases for both old and new classes. The
identification solution that we have presented in this research can also be
reused for other problem domains which require continual learning and/or
Fine-Grained Visual Categorization.
- Abstract(参考訳): 本稿では,VeriMedi デバイスで撮影された画像を用いて薬剤の同定と検証を行うシステムを提案する。
verimedi deviceはiot(internet of things, モノのインターネット)デバイスで、バイアルの底から充填された錠剤の写真を撮り、この研究で提示されたソリューションを使って、バイアル内の錠剤を識別する。
このソリューションには、セグメンテーションと識別を行う2つの連続接続型ディープラーニングソリューションがある。
セグメンテーションソリューションは、Mask R-CNNモデルを使用して、バイセル画像の各ピルのマスクを生成し、その後、セグメンテーションして薬を収穫し、背景をぼかす。
その後、セグメント化されたピル画像が識別ソリューションに送られ、プロキシアンカーロス(PAL)関数でトレーニングされたディープメトリックラーニングモデルが各ピル画像の埋め込みベクトルを生成する。
生成された埋め込みベクトルは、1層に完全に接続されたネットワークに入力され、個々のピル画像を予測する正確な解で訓練される。
そして、アグリゲーション/検証関数は、複数の単一のピル画像から来る複数の予測を集約し、予め定義されたルールに関する最終予測の正しさを検証する。
さらに、より優れたプロキシ初期化によって、モデルのパフォーマンスが向上し、モデルがデータセット全体を再トレーニングすることなく、新たなクラスのイメージを継続的に学習できるようにしました。
初期クラスでトレーニングされたモデルが新しいクラスでのみ再トレーニングされると、古いクラスと新しいクラスの両方でモデルの精度が向上する。
この研究で提示した識別ソリューションは、継続学習や細粒度視覚分類を必要とする他の問題領域にも再利用できる。
関連論文リスト
- XLIP: Cross-modal Attention Masked Modelling for Medical Language-Image Pre-Training [29.02600107837688]
視覚と言語による事前学習は、画像とテキストのペアにおける対照的な学習を用いて、タスク間の効果的な伝達を実現する。
現在のモデルは、医療データの不足により、重要な病理的特徴を正確に再構築するのに苦労している。
本稿では,XLIP(Masked modelling for Medical Language-Image Pre-Training)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-28T17:38:21Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Multi-stream Fusion for Class Incremental Learning in Pill Image
Classification [5.013866470627594]
従来のピル画像分類システムにクラスインクリメンタルラーニング(CIL)機能を導入する。
本フレームワークでは,ピル画像の色特化情報をガイダンスストリームとして検討する。
CG-IMIFは,タスク設定の相違により,複数の最先端手法を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2022-10-05T15:05:15Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - A Novel Approach for Pill-Prescription Matching with GNN Assistance and
Contrastive Learning [6.226781755452289]
モバイル画像から薬の処方を正しく識別するシステムを開発した。
PIMAはグラフニューラルネットワーク(GNN)とコントラスト学習を用いた新しいアプローチである。
PIMAは、他のベースラインと比較して精度を19.09%から46.95%に改善している。
論文 参考訳(メタデータ) (2022-09-02T16:18:36Z) - Image-based Contextual Pill Recognition with Medical Knowledge Graph
Assistance [3.4123736336071864]
創薬精度を高めるために外部知識を活用するPIKAという新しいアプローチを導入する。
具体的には,患者が服薬を摂取した写真から薬を識別することを目的とした現実的なシナリオ(文脈的錠剤認識)に対処する。
このフレームワーク内では、各錠剤の視覚的表現をグラフ埋め込み空間にマッピングし、グラフ表現に注意を向けるために使用される。
論文 参考訳(メタデータ) (2022-08-04T03:55:53Z) - Colorectal Polyp Classification from White-light Colonoscopy Images via
Domain Alignment [57.419727894848485]
大腸内視鏡画像からの正確な診断を支援するためには,コンピュータ支援診断システムが必要である。
これまでのほとんどの研究では、Narrow-Band Imaging (NBI) や他の拡張画像を用いて、ポリプの分化モデルの開発を試みている。
正確な大腸ポリープ分類のための教師/学生アーキテクチャに基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-05T09:31:46Z) - Contrastive Semi-Supervised Learning for 2D Medical Image Segmentation [16.517086214275654]
フルイメージではなく,画像パッチにContrastive Learning(CL)を適用した,新しい半教師付き2次元医療セグメンテーションソリューションを提案する。
これらのパッチは、擬似ラベリングによって得られた異なるクラスの意味情報を用いて有意義に構築される。
また,コントラスト学習と相乗効果を持つ新しい整合正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-12T15:43:24Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。