論文の概要: PEAR: A Robust and Flexible Automation Framework for Ptychography Enabled by Multiple Large Language Model Agents
- arxiv url: http://arxiv.org/abs/2410.09034v1
- Date: Fri, 11 Oct 2024 17:50:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 20:26:51.479770
- Title: PEAR: A Robust and Flexible Automation Framework for Ptychography Enabled by Multiple Large Language Model Agents
- Title(参考訳): PEAR: 複数の大規模言語モデルエージェントで実現可能なPtychographyのためのロバストでフレキシブルな自動化フレームワーク
- Authors: Xiangyu Yin, Chuqiao Shi, Yimo Han, Yi Jiang,
- Abstract要約: 実際には、高品質な画像を得るには、多数の実験パラメータとアルゴリズムパラメータを同時に最適化する必要がある。
本研究では,大規模言語モデル(LLM)を活用し,画像解析におけるデータ解析を自動化するフレームワークを開発する。
本研究は,PEARのマルチエージェント設計が,より小さなオープンウェイトモデルであっても,ワークフローの成功率を大幅に向上させることを示す。
- 参考スコア(独自算出の注目度): 6.6004056020499355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ptychography is an advanced computational imaging technique in X-ray and electron microscopy. It has been widely adopted across scientific research fields, including physics, chemistry, biology, and materials science, as well as in industrial applications such as semiconductor characterization. In practice, obtaining high-quality ptychographic images requires simultaneous optimization of numerous experimental and algorithmic parameters. Traditionally, parameter selection often relies on trial and error, leading to low-throughput workflows and potential human bias. In this work, we develop the "Ptychographic Experiment and Analysis Robot" (PEAR), a framework that leverages large language models (LLMs) to automate data analysis in ptychography. To ensure high robustness and accuracy, PEAR employs multiple LLM agents for tasks including knowledge retrieval, code generation, parameter recommendation, and image reasoning. Our study demonstrates that PEAR's multi-agent design significantly improves the workflow success rate, even with smaller open-weight models such as LLaMA 3.1 8B. PEAR also supports various automation levels and is designed to work with customized local knowledge bases, ensuring flexibility and adaptability across different research environments.
- Abstract(参考訳): Ptychographyは、X線および電子顕微鏡における高度な計算イメージング技術である。
物理学、化学、生物学、材料科学などの科学研究分野や、半導体のキャラクタリゼーションなどの産業分野で広く採用されている。
実際には、高品質な画像を得るには、多数の実験パラメータとアルゴリズムパラメータを同時に最適化する必要がある。
伝統的に、パラメータの選択はしばしば試行錯誤に依存し、低スループットのワークフローと潜在的な人間のバイアスにつながる。
本研究では,大規模言語モデル (LLM) を利用したPEAR(Ptychographic Experiment and Analysis Robot)を開発した。
高い堅牢性と精度を確保するため、PEARは知識検索、コード生成、パラメータレコメンデーション、画像推論などのタスクに複数のLLMエージェントを使用している。
本研究では,LLaMA 3.1 8Bのような小型オープンウェイトモデルであっても,PEARのマルチエージェント設計によりワークフローの成功率が大幅に向上することを示す。
PEARはまた、様々な自動化レベルをサポートし、異なる研究環境における柔軟性と適応性を確保するために、カスタマイズされたローカル知識ベースで動作するように設計されている。
関連論文リスト
- AiSciVision: A Framework for Specializing Large Multimodal Models in Scientific Image Classification [2.4515373478215343]
対話型研究パートナーにLMM(Large Multimodal Models)を専門とするフレームワークであるAiSciVisionを紹介する。
私たちのフレームワークでは、Visual Retrieval-Augmented Generation (VisRAG) と、エージェントワークフローで使用されるドメイン固有のツールの2つの重要なコンポーネントを使用します。
AiSciVisionを3つの実世界の科学的画像分類データセット(養殖池、ウナギ、ソーラーパネル)で評価した。
論文 参考訳(メタデータ) (2024-10-28T19:35:47Z) - MatPlotAgent: Method and Evaluation for LLM-Based Agentic Scientific Data Visualization [86.61052121715689]
MatPlotAgentは、科学的データ可視化タスクを自動化するために設計された、モデルに依存しないフレームワークである。
MatPlotBenchは、100人の検証されたテストケースからなる高品質なベンチマークである。
論文 参考訳(メタデータ) (2024-02-18T04:28:28Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z) - An Iterative Optimizing Framework for Radiology Report Summarization with ChatGPT [80.33783969507458]
放射線医学報告の「印象」セクションは、放射線医と他の医師とのコミュニケーションにとって重要な基盤である。
近年の研究では、大規模医療用テキストデータを用いた印象自動生成の有望な成果が得られている。
これらのモデルは、しばしば大量の医療用テキストデータを必要とし、一般化性能が劣る。
論文 参考訳(メタデータ) (2023-04-17T17:13:42Z) - AI-assisted Automated Workflow for Real-time X-ray Ptychography Data
Analysis via Federated Resources [2.682578132719034]
大規模リモートコンピューティングリソースと組込みGPUプラットフォームをエッジに使用して,X線写真のために収集したデータのAI/ML高速化リアルタイム解析を可能にする,エンドツーエンドの自動ワークフローを提案する。
論文 参考訳(メタデータ) (2023-04-09T19:11:04Z) - SEMPAI: a Self-Enhancing Multi-Photon Artificial Intelligence for
prior-informed assessment of muscle function and pathology [48.54269377408277]
本稿では,仮説駆動型先行処理をデータ駆動型ディープラーニングアプローチに統合した,SEMPAI(Self-Enhancing Multi-Photon Artificial Intelligence)を紹介する。
SEMPAIは、小さなデータセットの予測を可能にするために、いくつかのタスクを共同で学習する。
SEMPAIは、少ないデータを含む7つの予測タスクのうち6つにおいて、最先端のバイオマーカーよりも優れています。
論文 参考訳(メタデータ) (2022-10-28T17:03:04Z) - Microscopy is All You Need [0.0]
我々は、機械学習手法を開発するための有望な経路は、ドメイン固有のデプロイ可能なアルゴリズムの経路であると主張している。
これは基礎的な物理研究の恩恵を受け、ロボット工学や製造といったより複雑な自律システムのテストベッドとして機能する。
論文 参考訳(メタデータ) (2022-10-12T18:41:40Z) - A workflow for segmenting soil and plant X-ray CT images with deep
learning in Googles Colaboratory [45.99558884106628]
我々はX線マイクロCT画像に畳み込みニューラルネットワークを適用するためのモジュラーワークフローを開発した。
クルミの葉, アーモンドの花芽, 土壌集合体のサンプルスキャンを用いて, 最適な結果を得るために, パラメータを最適化する方法を示す。
論文 参考訳(メタデータ) (2022-03-18T00:47:32Z) - CheXstray: Real-time Multi-Modal Data Concordance for Drift Detection in
Medical Imaging AI [1.359138408203412]
医用画像AIドリフトモニタリングワークフローを構築してテストし、同時代の地上真実なしにデータとモデルドリフトを追跡する。
主な貢献は,(1)VAEおよび領域特異的統計手法を含む医用画像ドリフト検出のための概念実証である。
この研究は、動的医療環境における継続的医療画像AIモデルモニタリングに関連する翻訳ギャップに対処するために重要な意味を持つ。
論文 参考訳(メタデータ) (2022-02-06T18:58:35Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。