論文の概要: Convolutional Neural Networks for Real-Time Localization and
Classification in Feedback Digital Microscopy
- arxiv url: http://arxiv.org/abs/2004.05243v1
- Date: Fri, 10 Apr 2020 22:09:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 21:36:15.751750
- Title: Convolutional Neural Networks for Real-Time Localization and
Classification in Feedback Digital Microscopy
- Title(参考訳): フィードバックデジタル顕微鏡における畳み込みニューラルネットワークによるリアルタイム局在と分類
- Authors: Martin Fr\"anzl, Frank Cichos
- Abstract要約: 光学顕微鏡における粒子のリアルタイムな局在化と分類のための単一ショット畳み込みニューラルネットワーク(YOLOv2)を提案する。
このネットワークは、非常に低い信号対雑音比であっても、数百の顕微鏡オブジェクトをローカライズし、分類することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an adapted single-shot convolutional neural network (YOLOv2) for
the real-time localization and classification of particles in optical
microscopy. As compared to previous works, we focus on the real-time detection
capabilities of the system to allow for manipulation of microscopic objects in
large heterogeneous ensembles with the help of feedback control. The network is
capable of localizing and classifying several hundreds of microscopic objects
even at very low signal-to-noise ratios for images as large as 416x416 pixels
with an inference time of about 10 ms. We demonstrate the real-time detection
performance by manipulating active particles propelled by laser-induced
self-thermophoresis. In order to make our framework readily available for
others, we provide all scripts and source code. The network is implemented in
Python/Keras using the TensorFlow backend. A C library supporting GPUs is
provided for the real-time inference.
- Abstract(参考訳): 光学顕微鏡における粒子のリアルタイムな局在化と分類のための単一ショット畳み込みニューラルネットワーク(YOLOv2)を提案する。
先行研究と比較して,フィードバック制御の助けを借りて,大規模不均質アンサンブルにおける微視的物体の操作を可能にするリアルタイム検出機能に着目した。
推定時間約10msの416x416ピクセルに対して,非常に低い信号対雑音比でも,数百個の微小物体の局所化と分類が可能であり,レーザー誘起自己熱泳動による活性粒子の操作によるリアルタイム検出性能を実証する。
フレームワークを他の人に簡単に使えるようにするため、すべてのスクリプトとソースコードを提供しています。
ネットワークはTensorFlowバックエンドを使用してPython/Kerasで実装されている。
リアルタイム推論のためにGPUをサポートするCライブラリを提供する。
関連論文リスト
- Fast light-field 3D microscopy with out-of-distribution detection and
adaptation through Conditional Normalizing Flows [16.928404625892625]
リアルタイム3次元蛍光顕微鏡は生物の分析に不可欠である。
そこで我々は,生きた固定化ゼブラフィッシュ神経活動の高速な3次元再構成を行う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-10T10:42:49Z) - Analysis of the performance of U-Net neural networks for the
segmentation of living cells [0.0]
この研究は、顕微鏡画像のセグメント化におけるディープラーニングの性能の研究を目標としている。
深層学習技術(主に畳み込みニューラルネットワーク)は細胞セグメンテーション問題に応用されている。
準リアルタイム画像解析が可能となり、6.20GBのデータを4分で処理した。
論文 参考訳(メタデータ) (2022-10-04T11:48:59Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - ZippyPoint: Fast Interest Point Detection, Description, and Matching
through Mixed Precision Discretization [71.91942002659795]
我々は,ネットワーク量子化技術を用いて推論を高速化し,計算限定プラットフォームでの利用を可能にする。
バイナリディスクリプタを用いた効率的な量子化ネットワークZippyPointは,ネットワーク実行速度,ディスクリプタマッチング速度,3Dモデルサイズを改善する。
これらの改善は、ホモグラフィー推定、視覚的ローカライゼーション、マップフリーな視覚的再ローカライゼーションのタスクで評価されるように、小さなパフォーマンス劣化をもたらす。
論文 参考訳(メタデータ) (2022-03-07T18:59:03Z) - On-Device Spatial Attention based Sequence Learning Approach for Scene
Text Script Identification [0.0]
シーンテキストスクリプト識別のための,効率的な,リアルタイム,オンデバイス空間アテンションに基づくCNN-LSTMネットワークを提案する。
我々のネットワークはCNNで構成されており、自然画像における空間歪みを低減するための空間アテンションモジュールを備えている。
ネットワークは最先端の手法と競合する精度を達成し、ネットワークサイズは1100万のパラメータと2.7ミリ秒の推論時間で優れている。
論文 参考訳(メタデータ) (2021-12-01T12:16:02Z) - Programmable 3D snapshot microscopy with Fourier convolutional networks [3.2156268397508314]
3Dスナップショット顕微鏡は、単一の2Dカメラ画像で3Dボリュームをキャプチャすることにより、カメラと同じくらい高速なボリュームイメージングを可能にします。
3Dスナップショット画像にエンコードされたグローバル混合情報を効率的に統合できるグローバルカーネルフーリエ畳み込みニューラルネットワークのクラスを紹介します。
論文 参考訳(メタデータ) (2021-04-21T16:09:56Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。