論文の概要: AI-based automated active learning for discovery of hidden dynamic
processes: A use case in light microscopy
- arxiv url: http://arxiv.org/abs/2310.04461v1
- Date: Thu, 5 Oct 2023 08:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 18:30:02.171509
- Title: AI-based automated active learning for discovery of hidden dynamic
processes: A use case in light microscopy
- Title(参考訳): 隠れた動的プロセスの発見のためのAIベースの自動能動学習:光顕微鏡のユースケース
- Authors: Nils Friederich, Angelo Yamachui Sitcheu, Oliver Neumann, S\"uheyla
Ero\u{g}lu-Kay{\i}k\c{c}{\i}, Roshan Prizak, Lennart Hilbert, Ralf Mikut
- Abstract要約: 本稿では, バイオメディカル実験において, 効率的な獲得パラダイムを計画し, 実行するための2つの新しい手法を提案する。
最初の方法であるEncoded Dynamic Process (EDP)は人工知能(AI)ベースで、動的プロセスを表す。
第2の方法であるExperiment Automation Pipeline for Dynamic Processes(EAPDP)は、MLOpsベースのパイプラインである。
- 参考スコア(独自算出の注目度): 0.6821029310761493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the biomedical environment, experiments assessing dynamic processes are
primarily performed by a human acquisition supervisor. Contemporary
implementations of such experiments frequently aim to acquire a maximum number
of relevant events from sometimes several hundred parallel, non-synchronous
processes. Since in some high-throughput experiments, only one or a few
instances of a given process can be observed simultaneously, a strategy for
planning and executing an efficient acquisition paradigm is essential. To
address this problem, we present two new methods in this paper. The first
method, Encoded Dynamic Process (EDP), is Artificial Intelligence (AI)-based
and represents dynamic processes so as to allow prediction of pseudo-time
values from single still images. Second, with Experiment Automation Pipeline
for Dynamic Processes (EAPDP), we present a Machine Learning Operations
(MLOps)-based pipeline that uses the extracted knowledge from EDP to
efficiently schedule acquisition in biomedical experiments for dynamic
processes in practice. In a first experiment, we show that the pre-trained
State-Of-The- Art (SOTA) object segmentation method Contour Proposal Networks
(CPN) works reliably as a module of EAPDP to extract the relevant object for
EDP from the acquired three-dimensional image stack.
- Abstract(参考訳): バイオメディカル環境では、動的プロセスを評価する実験は主に人間の獲得監督者によって行われる。
このような実験の現代の実装は、しばしば数百の並列、非同期プロセスから関連する事象の最大数を取得することを目的としている。
高スループット実験では、与えられたプロセスの1つまたは数つのインスタンスしか同時に観測できないため、効率的な獲得パラダイムを計画し実行するための戦略が不可欠である。
この問題に対処するため,本稿では2つの新しい手法を提案する。
最初の方法であるEncoded Dynamic Process (EDP)は、人工知能(AI)ベースの動的プロセスであり、単一の静止画像から擬似時間値の予測を可能にする。
第2に、動的プロセスのための実験自動化パイプライン(EAPDP)を用いて、EDPから抽出した知識を使用して、実際に動的プロセスのための生体実験における取得を効率的にスケジュールする機械学習操作(MLOps)ベースのパイプラインを提案する。
最初の実験では、事前訓練されたステートオフ・ザ・アート(SOTA)オブジェクトセグメンテーション手法であるContour Proposal Networks(CPN)がEAPDPのモジュールとして確実に機能し、取得した3次元画像スタックからEDPの関連オブジェクトを抽出することを示した。
関連論文リスト
- VICON: Vision In-Context Operator Networks for Multi-Physics Fluid Dynamics Prediction [21.061630022134203]
In-Context Operator Networks (ICON) は、数ショットのインコンテキストアプローチを使用して、異なるタイプのPDEをまたいだ演算子を学習する。
既存の方法は、各データポイントを単一のトークンとして扱い、高密度データを処理する際に計算の非効率さに悩まされる。
本稿では,ビジョン・イン・コンテキスト・オペレーター・ネットワーク(VICON)を提案する。
論文 参考訳(メタデータ) (2024-11-25T03:25:17Z) - Reinforcement Learning with Action Sequence for Data-Efficient Robot Learning [62.3886343725955]
本稿では,行動列上のQ値を出力する批判ネットワークを学習する新しいRLアルゴリズムを提案する。
提案アルゴリズムは,現在および将来の一連の行動の実行結果を学習するために値関数を明示的に訓練することにより,ノイズのある軌道から有用な値関数を学習することができる。
論文 参考訳(メタデータ) (2024-11-19T01:23:52Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - AgentSimulator: An Agent-based Approach for Data-driven Business Process Simulation [6.590869939300887]
ビジネスプロセスシミュレーション(Business Process Simulation, BPS)は、プロセスのパフォーマンスを様々なシナリオで推定するための汎用的な手法である。
本稿では,イベントログからマルチエージェントシステムを検出するリソースファーストなBPS手法であるAgentSimulatorを紹介する。
実験の結果,AgentSimulatorは従来の手法よりもはるかに少ない時間で計算精度を向上できることがわかった。
論文 参考訳(メタデータ) (2024-08-16T07:19:11Z) - PRISE: LLM-Style Sequence Compression for Learning Temporal Action Abstractions in Control [55.81022882408587]
時間的行動抽象化は、信念状態表現とともに、シーケンシャルな意思決定のための強力な知識共有メカニズムである。
本稿では,時間的動作の抽象化をシーケンス圧縮問題として扱う新しい視点を提案する。
本稿では,連続的なアクション量子化とバイトペア符号化を組み合わせて,強力なアクション抽象化を学習するアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T04:55:09Z) - Dynamic-Resolution Model Learning for Object Pile Manipulation [33.05246884209322]
本研究では,様々な抽象レベルで動的かつ適応的な表現を学習し,効率と効率の最適なトレードオフを実現する方法について検討する。
具体的には、環境の動的分解能粒子表現を構築し、グラフニューラルネットワーク(GNN)を用いた統一力学モデルを学ぶ。
本手法は, 粒状オブジェクトの収集, ソート, 再分配において, 最先端の固定解像度ベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2023-06-29T05:51:44Z) - Meta-models for transfer learning in source localisation [3.8922067105369154]
この研究は、(メタモデルとして)AE実験間の相互依存性を捉えることを目的としている。
ハイレベルなメタモデルがタスク間関係をキャプチャするベイズ的マルチレベルアプローチを利用する。
主要な貢献は、実験的なキャンペーンの知識をタスクとタスクの間でエンコードする方法である。
論文 参考訳(メタデータ) (2023-05-15T14:02:35Z) - On Contrastive Representations of Stochastic Processes [53.21653429290478]
プロセスの表現を学習することは、機械学習の新たな問題である。
本手法は,周期関数,3次元オブジェクト,動的プロセスの表現の学習に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-18T11:00:24Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z) - Probabilistic Active Meta-Learning [15.432006404678981]
先行経験に基づくタスク選択をメタ学習アルゴリズムに導入する。
シミュレーションロボット実験の強いベースラインと比較して,本手法がデータ効率を向上させるという実証的証拠を提供する。
論文 参考訳(メタデータ) (2020-07-17T12:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。