論文の概要: Microscopy is All You Need
- arxiv url: http://arxiv.org/abs/2210.06526v1
- Date: Wed, 12 Oct 2022 18:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:28:17.860584
- Title: Microscopy is All You Need
- Title(参考訳): 顕微鏡は必要なだけ
- Authors: Sergei V. Kalinin, Rama Vasudevan, Yongtao Liu, Ayana Ghosh, Kevin
Roccapriore, and Maxim Ziatdinov
- Abstract要約: 我々は、機械学習手法を開発するための有望な経路は、ドメイン固有のデプロイ可能なアルゴリズムの経路であると主張している。
これは基礎的な物理研究の恩恵を受け、ロボット工学や製造といったより複雑な自律システムのテストベッドとして機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We pose that microscopy offers an ideal real-world experimental environment
for the development and deployment of active Bayesian and reinforcement
learning methods. Indeed, the tremendous progress achieved by machine learning
(ML) and artificial intelligence over the last decade has been largely achieved
via the utilization of static data sets, from the paradigmatic MNIST to the
bespoke corpora of text and image data used to train large models such as GPT3,
DALLE and others. However, it is now recognized that continuous, minute
improvements to state-of-the-art do not necessarily translate to advances in
real-world applications. We argue that a promising pathway for the development
of ML methods is via the route of domain-specific deployable algorithms in
areas such as electron and scanning probe microscopy and chemical imaging. This
will benefit both fundamental physical studies and serve as a test bed for more
complex autonomous systems such as robotics and manufacturing. Favorable
environment characteristics of scanning and electron microscopy include low
risk, extensive availability of domain-specific priors and rewards, relatively
small effects of exogeneous variables, and often the presence of both upstream
first principles as well as downstream learnable physical models for both
statics and dynamics. Recent developments in programmable interfaces, edge
computing, and access to APIs facilitating microscope control, all render the
deployment of ML codes on operational microscopes straightforward. We discuss
these considerations and hope that these arguments will lead to creating a
novel set of development targets for the ML community by accelerating both
real-world ML applications and scientific progress.
- Abstract(参考訳): 我々は,アクティブベイズ法と強化学習法の開発と展開に,顕微鏡が理想的な実世界実験環境であることを示す。
実際、機械学習(ML)と人工知能によって過去10年間に達成された膨大な進歩は、パラダイム的MNISTから、GPT3、DALLEなどの大規模モデルのトレーニングに使用されるテキストと画像データの異常なコーパスまで、静的データセットの利用によって大きく達成されてきた。
しかし、最先端の継続的かつ微小な改善は、必ずしも現実世界のアプリケーションにおける進歩に変換されないことが認識されている。
ML法の開発には,電子顕微鏡や走査型プローブ顕微鏡,化学画像などの領域において,ドメイン固有の展開可能なアルゴリズムの経路を通すことが望まれる。
これは基礎的な物理研究の恩恵を受け、ロボット工学や製造といったより複雑な自律システムのテストベッドとして機能する。
走査と電子顕微鏡の良好な環境特性には、リスクの低いこと、ドメイン固有の事前および報酬の広範な可用性、異種変数の比較的小さな影響、上流の第一原理と下流の学習可能な物理モデルの両方の存在がある。
プログラム可能なインターフェース、エッジコンピューティング、および顕微鏡制御を容易にするAPIへのアクセスの最近の進歩は、すべて、運用顕微鏡へのMLコードのデプロイを簡単にする。
これらの考察を議論し、現実のML応用と科学的進歩を加速することにより、これらの議論がMLコミュニティのための新たな開発目標のセットを生み出すことを期待する。
関連論文リスト
- Recent Advances on Machine Learning for Computational Fluid Dynamics: A Survey [51.87875066383221]
本稿では、基本概念、従来の手法、ベンチマークデータセットを紹介し、CFDを改善する上で機械学習が果たす様々な役割について検討する。
我々は,空気力学,燃焼,大気・海洋科学,生物流体,プラズマ,記号回帰,秩序の低減など,CFDにおけるMLの現実的な応用を強調した。
シミュレーションの精度を向上し、計算時間を短縮し、流体力学のより複雑な解析を可能にすることにより、MLはCFD研究を大きく変革する可能性があるという結論を導いた。
論文 参考訳(メタデータ) (2024-08-22T07:33:11Z) - Human-in-the-loop: The future of Machine Learning in Automated Electron
Microscopy [0.6760163180787716]
MLに基づくアクティブな実験を設計する際の考慮事項について論じる。
今後数年間の計画としては、人力による自動実験が考えられる。
論文 参考訳(メタデータ) (2023-10-08T05:26:32Z) - Deep Learning for Automated Experimentation in Scanning Transmission
Electron Microscopy [0.0]
機械学習(ML)は、()透過電子顕微鏡、走査(S)TEM、イメージング、分光法において、取得後のデータ解析に欠かせないものとなっている。
本稿では, 逐次データ解析とアウト・オブ・ディストリビューションドリフト効果を含む, アクティブMLへの移行に伴う課題について論じる。
これらの考察は、次世代実験におけるMLの運用を総括的に示すものである。
論文 参考訳(メタデータ) (2023-04-04T18:01:56Z) - Machine learning in bioprocess development: From promise to practice [58.720142291102135]
機械学習(ML)アプローチのようなデータ駆動の手法は、大きな設計空間を合理的に探索する可能性が高い。
本研究の目的は,これまでのバイオプロセス開発におけるML手法の適用例を示すことである。
論文 参考訳(メタデータ) (2022-10-04T13:48:59Z) - Towards Augmented Microscopy with Reinforcement Learning-Enhanced
Workflows [0.0]
我々は,電子ビームを事前の知識なく自律的に整列させるネットワークをテスト・開発するための仮想環境を開発する。
我々は、顕微鏡上で成功したモデルをデプロイし、そのアプローチを検証し、適切な仮想環境を設計する価値を実証する。
全体としては、RLを利用することで、広範囲なアルゴリズム設計を必要とせずに、顕微鏡操作を自動化できることが示されている。
論文 参考訳(メタデータ) (2022-08-04T20:02:21Z) - Bayesian Active Learning for Scanning Probe Microscopy: from Gaussian
Processes to Hypothesis Learning [0.0]
ベイズ能動学習の基本原理と走査型プローブ顕微鏡(SPM)への応用について述べる。
これらのフレームワークは、先行データの使用、スペクトルデータに符号化された特定の機能の発見、実験中に現れる物理法則の探索を可能にする。
論文 参考訳(メタデータ) (2022-05-30T23:01:41Z) - Ultrafast Focus Detection for Automated Microscopy [0.0]
連続的に収集した電子顕微鏡画像に対する高速な焦点検出アルゴリズムを提案する。
本手法は, 従来のコンピュータビジョン技術に適応し, 様々な微細な組織学的特徴を検出する手法である。
アウト・オブ・フォーカス条件をほぼリアルタイムに検出するテストが実施されている。
論文 参考訳(メタデータ) (2021-08-26T22:24:41Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Global Voxel Transformer Networks for Augmented Microscopy [54.730707387866076]
本稿では,拡張顕微鏡のための高度な深層学習ツールであるグローバルボクセルトランスフォーマーネットワーク(GVTNets)を紹介する。
GVTNetはグローバルな情報収集が可能なグローバルなボクセル変換演算子(GVTO)上に構築されている。
提案手法を既存のデータセットに適用し,様々な環境下での3種類の拡張顕微鏡タスクについて検討する。
論文 参考訳(メタデータ) (2020-08-05T20:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。