論文の概要: LEO: An Open-Source Platform for Linking OMERO with Lab Notebooks and Heterogeneous Metadata Sources
- arxiv url: http://arxiv.org/abs/2508.00654v1
- Date: Fri, 01 Aug 2025 14:15:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.90772
- Title: LEO: An Open-Source Platform for Linking OMERO with Lab Notebooks and Heterogeneous Metadata Sources
- Title(参考訳): LEO: OMEROとラボノートブックと異種メタデータソースをリンクするオープンソースプラットフォーム
- Authors: Rodrigo Escobar Díaz Guerrero, Jamile Mohammad Jafari, Tobias Meyer-Zedler, Michael Schmitt, Juergen Popp, Thomas Bocklitz,
- Abstract要約: 顕微鏡研究では、異なるプラットフォームにまたがる大量のデータを管理および統合することが大きな課題である。
分散データシステム間のリンクを作成・管理するWebベースのプラットフォームであるLEOについて述べる。
- 参考スコア(独自算出の注目度): 1.0408909053766147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the interdisciplinary field of microscopy research, managing and integrating large volumes of data stored across disparate platforms remains a major challenge. Data types such as bioimages, experimental records, and spectral information are often maintained in separate repositories, each following different management standards. However, linking these data sources across the research lifecycle is essential to align with the FAIR principles of data management: Findability, Accessibility, Interoperability, and Reusability. Despite this need, there is a notable lack of tools capable of effectively integrating and linking data from heterogeneous sources. To address this gap, we present LEO (Linking Electronic Lab Notebooks with OMERO), a web-based platform designed to create and manage links between distributed data systems. LEO was initially developed to link objects between Electronic Lab Notebooks (ELNs) and OMERO, but its functionality has since been extended through a plugin-based architecture, allowing the integration of additional data sources. This extensibility makes LEO a scalable and flexible solution for a wide range of microscopy research workflows.
- Abstract(参考訳): 顕微鏡研究の学際分野では、異なるプラットフォームにまたがる大量のデータを管理・統合することが大きな課題である。
バイオイメージング、実験記録、スペクトル情報などのデータ型は、しばしば別々のリポジトリに保持され、それぞれが異なる管理基準に従っている。
しかし、これらのデータソースを研究ライフサイクル全体にわたってリンクすることは、データ管理のFAIR原則(Finderability、Accessibility、Interoperability、Reusability)に沿うために不可欠である。
このようなニーズにもかかわらず、異種ソースからのデータを効果的に統合しリンクできるツールが不足している。
このギャップに対処するため,分散データシステム間のリンクを作成・管理する Web ベースのプラットフォームである LEO (Linking Electronic Lab Notebooks with OMERO) を提案する。
LEOは当初、Electronic Lab Notebooks (ELN) とOMEROのオブジェクトをリンクするために開発されたが、その後プラグインベースのアーキテクチャによって拡張され、追加のデータソースの統合が可能になった。
この拡張性により、LEOは幅広い顕微鏡研究ワークフローのためのスケーラブルで柔軟なソリューションになる。
関連論文リスト
- From Data to Decision: Data-Centric Infrastructure for Reproducible ML in Collaborative eScience [1.136688282190268]
機械学習(ML)における再現性は依然として中心的な課題である
現在のMLは、しばしば断片化され、非公式なデータ共有、アドホックスクリプト、ゆるく接続されたツールに依存している。
本稿では,ライフサイクルを意識したアーティファクトのためのデータ中心フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-19T06:09:01Z) - MOLE: Metadata Extraction and Validation in Scientific Papers Using LLMs [54.5729817345543]
MOLEは、アラビア語以外の言語のデータセットをカバーする科学論文からメタデータ属性を自動的に抽出するフレームワークである。
本手法では,複数の入力形式にまたがって文書全体を処理し,一貫した出力に対する堅牢な検証機構を組み込む。
論文 参考訳(メタデータ) (2025-05-26T10:31:26Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Large Language Models (LLMs) for Source Code Analysis: applications, models and datasets [3.8740749765622167]
大規模言語モデル(LLM)やトランスフォーマーベースのアーキテクチャは、ますますソースコード解析に利用されている。
本稿では,3つの重要な側面に焦点をあて,異なるコード解析タスクにおけるLLMの役割について考察する。
論文 参考訳(メタデータ) (2025-03-21T19:29:50Z) - SWE-Fixer: Training Open-Source LLMs for Effective and Efficient GitHub Issue Resolution [56.9361004704428]
大規模言語モデル(LLM)は、様々な複雑なタスクにまたがる顕著な習熟度を示している。
SWE-Fixerは、GitHubの問題を効果的かつ効率的に解決するために設計された、新しいオープンソースフレームワークである。
我々は,SWE-Bench LiteとVerifiedベンチマークに対するアプローチを評価し,オープンソースモデル間の競合性能を実現する。
論文 参考訳(メタデータ) (2025-01-09T07:54:24Z) - ToolBridge: An Open-Source Dataset to Equip LLMs with External Tool Capabilities [43.232034005763005]
本稿では、言語モデルに外部ツールの活用方法を学ぶためのデータセット構築に関する詳細なプロセスを明らかにすることを目的とする。
ToolBridgeは、一般的なオープンアクセスデータセットの集合を生データセットプールとして使用することを提案している。
これらのキュレートされたデータエントリの微調整を監督することにより、LLMは予測精度を高めるために、適切なコンテキストで外部ツールを呼び出すことができる。
論文 参考訳(メタデータ) (2024-10-08T20:54:40Z) - LAMBDA: A Large Model Based Data Agent [7.240586338370509]
本稿では,LArge Model Based Data Agent (LAMBDA)を紹介する。
LAMBDAは、データ駆動アプリケーションにおけるデータ分析の課題に対処するように設計されている。
それは、人間と人工知能をシームレスに統合することで、データ分析パラダイムを強化する可能性がある。
論文 参考訳(メタデータ) (2024-07-24T06:26:36Z) - DiscoveryBench: Towards Data-Driven Discovery with Large Language Models [50.36636396660163]
我々は、データ駆動探索の多段階プロセスを形式化する最初の包括的なベンチマークであるDiscoveryBenchを紹介する。
我々のベンチマークには、社会学や工学などの6つの分野にまたがる264のタスクが含まれている。
私たちのベンチマークでは、自律的なデータ駆動型発見の課題を説明し、コミュニティが前進するための貴重なリソースとして役立ちます。
論文 参考訳(メタデータ) (2024-07-01T18:58:22Z) - EDA Corpus: A Large Language Model Dataset for Enhanced Interaction with OpenROAD [0.2581187101462483]
我々は、広く採用されているオープンソースのEDAツールチェーンであるOpenROAD向けに、オープンソースデータセットを提示する。
データセットには1000以上のデータポイントがあり、 (i) 質問プロンプトからなるペアセットと (ii) コードプロンプトとそれに対応するOpenROADスクリプトで構成されるペアセットの2つのフォーマットで構成されている。
論文 参考訳(メタデータ) (2024-05-04T21:29:37Z) - DataDreamer: A Tool for Synthetic Data Generation and Reproducible LLM Workflows [72.40917624485822]
我々は、研究者が強力な大規模言語モデルを実装することができるオープンソースのPythonライブラリであるDataDreamerを紹介した。
DataDreamerはまた、オープンサイエンスを促進するために提案するベストプラクティスに研究者が従うのを助ける。
論文 参考訳(メタデータ) (2024-02-16T00:10:26Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - Off-the-Grid MARL: Datasets with Baselines for Offline Multi-Agent
Reinforcement Learning [4.159549932951023]
オフラインマルチエージェント強化学習(MARL)は、このようなデータセットから効果的な分散型コントローラを構築するための有望なパラダイムを提供する。
MARLはまだ初期段階であり、標準化されたベンチマークデータセットとベースラインがない。
OG-MARLは、協調的なオフラインMARL研究のためのベースラインを持つ高品質データセットのリポジトリである。
論文 参考訳(メタデータ) (2023-02-01T15:41:27Z) - Deep Transfer Learning for Multi-source Entity Linkage via Domain
Adaptation [63.24594955429465]
マルチソースエンティティリンクは、データのクリーニングやユーザ縫合といった、高インパクトなアプリケーションにおいて重要である。
AdaMELは、多ソースエンティティリンクを実行するための一般的なハイレベルな知識を学ぶディープトランスファー学習フレームワークである。
本フレームワークは,教師付き学習に基づく平均的手法よりも8.21%向上した最先端の学習結果を実現する。
論文 参考訳(メタデータ) (2021-10-27T15:20:41Z) - Multitask learning for instrument activation aware music source
separation [83.30944624666839]
本稿では,楽器のアクティベーション情報を用いて音源分離性能を向上させるための新しいマルチタスク構造を提案する。
MUSDBデータセットに含まれる3つの楽器よりも現実的なシナリオである6つの独立した楽器について,本システムについて検討する。
その結果,提案したマルチタスクモデルは,Mixing SecretsとMedleyDBデータセットを混合したベースラインのOpen-Unmixモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-03T02:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。