論文の概要: Physics-enhanced machine learning for virtual fluorescence microscopy
- arxiv url: http://arxiv.org/abs/2004.04306v2
- Date: Tue, 21 Apr 2020 22:19:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 02:38:33.362489
- Title: Physics-enhanced machine learning for virtual fluorescence microscopy
- Title(参考訳): 仮想蛍光顕微鏡のための物理強化機械学習
- Authors: Colin L. Cooke, Fanjie Kong, Amey Chaware, Kevin C. Zhou, Kanghyun
Kim, Rong Xu, D. Michael Ando, Samuel J. Yang, Pavan Chandra Konda, Roarke
Horstmeyer
- Abstract要約: 本稿では, 仮想蛍光顕微鏡のための新しいデータ駆動顕微鏡設計法を提案する。
深層畳み込みニューラルネットワークの第1層に照明のモデルを含めることで、タスク固有のLEDパターンを学ぶことができる。
- 参考スコア(独自算出の注目度): 3.7817498232858857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a new method of data-driven microscope design for
virtual fluorescence microscopy. Our results show that by including a model of
illumination within the first layers of a deep convolutional neural network, it
is possible to learn task-specific LED patterns that substantially improve the
ability to infer fluorescence image information from unstained transmission
microscopy images. We validated our method on two different experimental
setups, with different magnifications and different sample types, to show a
consistent improvement in performance as compared to conventional illumination
methods. Additionally, to understand the importance of learned illumination on
inference task, we varied the dynamic range of the fluorescent image targets
(from one to seven bits), and showed that the margin of improvement for learned
patterns increased with the information content of the target. This work
demonstrates the power of programmable optical elements at enabling better
machine learning algorithm performance and at providing physical insight into
next generation of machine-controlled imaging systems.
- Abstract(参考訳): 本稿では, 仮想蛍光顕微鏡のための新しいデータ駆動顕微鏡設計法を提案する。
その結果, 深部畳み込みニューラルネットワークの第1層に照明のモデルを含めることで, 蛍光画像情報を非定常透過顕微鏡画像から推定する能力を大幅に向上するタスク固有のLEDパターンを学習できることがわかった。
従来の照明法と比較して, 異なる倍率と異なる試料型で実験を行った結果, 従来の照明法と比較して, 性能が一貫した改善が得られた。
また, 推定課題における学習照明の重要性を理解するために, 蛍光像ターゲットのダイナミックレンジ(1ビットから7ビット)を変化させ, 対象の情報量に応じて学習パターンの改善率を増加させた。
本研究は、プログラム可能な光学素子のパワーを実証し、機械学習アルゴリズムの性能向上と、次世代の機械制御イメージングシステムへの物理的洞察を提供する。
関連論文リスト
- CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Gravitational cell detection and tracking in fluorescence microscopy
data [0.18828620190012021]
我々は、現代の機械学習モデルと競合し、潜在的に勝る可能性のある重力場に基づく新しいアプローチを提案する。
この方法では、検出、セグメンテーション、トラッキング要素が含まれ、その結果はCell Tracking Challengeデータセットで示される。
論文 参考訳(メタデータ) (2023-12-06T14:08:05Z) - LUCYD: A Feature-Driven Richardson-Lucy Deconvolution Network [0.31402652384742363]
本稿では,ボリューム顕微鏡画像の復元手法であるLUCYDを提案する。
ルーシードはリチャードソン=ルーシーの脱畳み込み公式と、完全な畳み込みネットワークによって得られる深い特徴の融合を組み合わせた。
実験の結果,LUCYDは顕微鏡画像の解像度,コントラスト,全体的な画質を大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2023-07-16T10:34:23Z) - Deep Learning Methods for Calibrated Photometric Stereo and Beyond [86.57469194387264]
光度ステレオは、さまざまなシェーディングキューを持つ複数の画像から物体の表面の正常性を回復する。
深層学習法は、非ランベルト面に対する測光ステレオの文脈において強力な能力を示している。
論文 参考訳(メタデータ) (2022-12-16T11:27:44Z) - Untrained, physics-informed neural networks for structured illumination
microscopy [0.456877715768796]
我々は、深層ニューラルネットワークと構造化照明プロセスの前方モデルを組み合わせることで、トレーニングデータなしでサブ回折像を再構成できることを示す。
結果として生じる物理インフォームドニューラルネットワーク(PINN)は、単一の回折制限されたサブイメージセットに最適化することができる。
論文 参考訳(メタデータ) (2022-07-15T19:02:07Z) - Learning multi-scale functional representations of proteins from
single-cell microscopy data [77.34726150561087]
局所化分類に基づいて訓練された単純な畳み込みネットワークは、多様な機能情報をカプセル化したタンパク質表現を学習できることを示す。
また,生物機能の異なるスケールでタンパク質表現の質を評価するためのロバストな評価戦略を提案する。
論文 参考訳(メタデータ) (2022-05-24T00:00:07Z) - Computational ghost imaging for transmission electron microscopy [4.8776835876287805]
本研究では,電子顕微鏡におけるゴーストイメージングの計算手法を用いて,必要な総強度の低減を図っている。
電子に対する同等の高分解能光空間光変調器の技術的欠如は、異なるアプローチを追求する必要があることを意味する。
電気的に帯電した金属針の分布をビーム構造に利用したビーム整形技術と、その結果の非直交パターンを扱う新しい再構成手法について述べる。
論文 参考訳(メタデータ) (2022-04-21T09:43:54Z) - Controllable Data Augmentation Through Deep Relighting [75.96144853354362]
我々は、既存のモデルが照度変化に不変である能力を改善するために、リライトを通じて様々な画像データセットを拡大する方法を探る。
我々は,エンコーダ・デコーダネットワークをベースとして,様々な入力シーンの照明の様々なバリエーションを迅速に生成できるツールを開発した。
パイプラインで拡張されたデータセットのモデルをトレーニングすることで、ローカライゼーションベンチマークでより高いパフォーマンスを実現することが可能であることを実証した。
論文 参考訳(メタデータ) (2021-10-26T20:02:51Z) - Global Voxel Transformer Networks for Augmented Microscopy [54.730707387866076]
本稿では,拡張顕微鏡のための高度な深層学習ツールであるグローバルボクセルトランスフォーマーネットワーク(GVTNets)を紹介する。
GVTNetはグローバルな情報収集が可能なグローバルなボクセル変換演算子(GVTO)上に構築されている。
提案手法を既存のデータセットに適用し,様々な環境下での3種類の拡張顕微鏡タスクについて検討する。
論文 参考訳(メタデータ) (2020-08-05T20:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。