論文の概要: Cell Culture Assistive Application for Precipitation Image Diagnosis
- arxiv url: http://arxiv.org/abs/2407.19913v1
- Date: Mon, 29 Jul 2024 11:42:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 14:06:25.680671
- Title: Cell Culture Assistive Application for Precipitation Image Diagnosis
- Title(参考訳): 沈殿画像診断における細胞培養補助的応用
- Authors: Takato Yasuno,
- Abstract要約: 光学顕微鏡画像を用いた384孔板の降水を自動的に検出するアプリケーションを開発した。
MNペアのコントラストクラスタリングを適用し,約20,000のパッチ画像から降水クラスを抽出する。
また,四重項井戸画像の最大値から降水量を検出するための機械学習パイプラインを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In regenerative medicine research, we experimentally design the composition of chemical medium. We add different components to 384-well plates and culture the biological cells. We monitor the condition of the cells and take time-lapse bioimages for morphological assay. In particular, precipitation can appear as artefacts in the image and contaminate the noise in the imaging assay. Inspecting precipitates is a tedious task for the observer, and differences in experience can lead to variations in judgement from person to person. The machine learning approach will remove the burden of human inspection and provide consistent inspection. In addition, precipitation features are as small as 10-20 {\mu}m. A 1200 pixel square well image resized under a resolution of 2.82 {\mu}m/pixel will result in a reduction in precipitation features. Dividing the well images into 240-pixel squares and learning without resizing preserves the resolution of the original image. In this study, we developed an application to automatically detect precipitation on 384-well plates utilising optical microscope images. We apply MN-pair contrastive clustering to extract precipitation classes from approximately 20,000 patch images. To detect precipitation features, we compare deeper FCDDs detectors with optional backbones and build a machine learning pipeline to detect precipitation from the maximum score of quadruplet well images using isolation Forest algorithm, where the anomaly score is ranged from zero to one. Furthermore, using this application we can visualise precipitation situ heatmap on a 384-well plate.
- Abstract(参考訳): 再生医療研究において,我々は化学物質の組成を実験的に設計する。
384ウェルプレートに異なる成分を加え、生体細胞を培養する。
我々は, 細胞の状態を監視し, 時間分解バイオイメージングを用いて形態学的診断を行う。
特に、降水は画像の人工物として現れ、画像アッセイのノイズを汚染する。
沈殿物を調べることは観察者にとって面倒な作業であり、経験の違いは人から人への判断のバリエーションにつながる可能性がある。
機械学習のアプローチは、人間の検査の負担を取り除き、一貫した検査を提供する。
また、降水量は10-20 {\mu}m程度である。
1200ピクセルの2.82 m/ピクセルの解像度で再サイズされた正方形の井戸画像は、降水特性の低下をもたらす。
ウェルイメージを240ピクセルの正方形に分割し、元のイメージの解像度を小さくすることなく学習する。
本研究では,光学顕微鏡画像を用いた384ウェルプレートの降水を自動的に検出するアプリケーションを開発した。
約2万枚のパッチ画像から降水クラスを抽出するためにMNペアコントラストクラスタリングを適用した。
降水特性を検出するために、より深いFCDD検出器とオプションのバックボーンを比較し、異常スコアが0から1の範囲の分離フォレストアルゴリズムを用いて、四重項井戸画像の最大スコアから降水を検出する機械学習パイプラインを構築した。
さらに, この応用により, 384ウェルプレート上の降水シチューヒートマップを可視化することができる。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - A Deep Reinforcement Learning Framework for Rapid Diagnosis of Whole
Slide Pathological Images [4.501311544043762]
本稿では,ネットワーク推論に要する時間を大幅に削減できる,弱教師付き深層強化学習フレームワークを提案する。
ニューラルネットワークを用いて,強化学習エージェントの探索モデルと決定モデルを構築する。
実験結果から,提案手法は画素レベルのアノテーションを使わずに,スライド画像全体の高速な推測と精度の予測が可能であることが示唆された。
論文 参考訳(メタデータ) (2022-05-05T14:20:29Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Fast whole-slide cartography in colon cancer histology using superpixels
and CNN classification [0.22312377591335414]
通常、全体スライディングイメージは小さなパッチに分割され、機械学習ベースのアプローチを使用して個別に分析される。
本稿では,画像の分類に先立って,視覚的に類似した画像画素をより大きなセグメント,すなわちスーパーピクセルに分類することで,画像をコヒーレントな領域に分割することを提案する。
このアルゴリズムは手書きの大腸切除画像159枚のデータセットを用いて開発・検証され,その性能は標準的なパッチベースアプローチと比較されている。
論文 参考訳(メタデータ) (2021-06-30T08:34:06Z) - Compressed Sensing for Photoacoustic Computed Tomography Using an
Untrained Neural Network [1.7237160821929758]
光音響(PA)CT(PACT)は様々な臨床応用において大きな可能性を秘めている。
測定されたチャンネルの数を減らしたり、検出されたビューを制限すると、アーティファクトやサイドローブが画像を汚染する可能性がある。
本稿では,未学習ニューラルネットワークを用いたPACTの圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:01:58Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Blind microscopy image denoising with a deep residual and multiscale
encoder/decoder network [0.0]
深層マルチスケール畳み込みエンコーダデコーダニューラルネットワークを提案する。
提案されたモデルは、PSNRの平均38.38、SSIMの0.98の57458画像セットに到達した。
論文 参考訳(メタデータ) (2021-05-01T14:54:57Z) - Towards Ultrafast MRI via Extreme k-Space Undersampling and
Superresolution [65.25508348574974]
我々は、オリジナルのfastMRIチャレンジを参照するすべての公開論文によって報告されたMRI加速係数を下回る。
低解像を補うための強力な深層学習に基づく画像強化手法を検討する。
復元された画像の品質は他の方法よりも高く、MSEは0.00114、PSNRは29.6 dB、SSIMは0.956 x16加速係数である。
論文 参考訳(メタデータ) (2021-03-04T10:45:01Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Deep learning model trained on mobile phone-acquired frozen section
images effectively detects basal cell carcinoma [0.728871001316957]
携帯電話が取得した凍結部画像に基づいて学習したディープラーニングモデルが,将来の展開に十分な性能を持つかどうかを考察する。
モデルは入力として画像を使用し、同じ次元の予測の2次元の白黒出力を生成する。
このモデルは、レシーバ演算子曲線の0.99の曲線と、画素レベルでの高精度リコール曲線の0.97の領域を達成している。
論文 参考訳(メタデータ) (2020-11-22T18:30:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。