論文の概要: Vision-based robot manipulation of transparent liquid containers in a laboratory setting
- arxiv url: http://arxiv.org/abs/2404.16529v1
- Date: Thu, 25 Apr 2024 11:42:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 13:59:41.139493
- Title: Vision-based robot manipulation of transparent liquid containers in a laboratory setting
- Title(参考訳): 実験室における透明液体容器の視覚に基づくロボット操作
- Authors: Daniel Schober, Ronja Güldenring, James Love, Lazaros Nalpantidis,
- Abstract要約: 液体体積推定のための視覚ベースシステムとシミュレーション駆動型注水法を開発した。
両コンポーネントを個別に評価し,UR5ロボットアームを用いた実世界の細胞培養の自動化を応用した。
- 参考スコア(独自算出の注目度): 3.443622476405787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Laboratory processes involving small volumes of solutions and active ingredients are often performed manually due to challenges in automation, such as high initial costs, semi-structured environments and protocol variability. In this work, we develop a flexible and cost-effective approach to address this gap by introducing a vision-based system for liquid volume estimation and a simulation-driven pouring method particularly designed for containers with small openings. We evaluate both components individually, followed by an applied real-world integration of cell culture automation using a UR5 robotic arm. Our work is fully reproducible: we share our code at at \url{https://github.com/DaniSchober/LabLiquidVision} and the newly introduced dataset LabLiquidVolume is available at https://data.dtu.dk/articles/dataset/LabLiquidVision/25103102.
- Abstract(参考訳): 少量の溶液と活性成分を含む実験室のプロセスは、高い初期コスト、半構造化環境、プロトコルの可変性といった自動化上の課題のために手動で行われることが多い。
本研究では, このギャップに対処するフレキシブルで費用対効果の高い手法として, 液量推定のための視覚ベースシステムと, 小型開口容器に特化して設計されたシミュレーション駆動型注水方式を導入する。
両コンポーネントを個別に評価し,UR5ロボットアームを用いた実世界の細胞培養の自動化を応用した。
私たちの作業は完全に再現可能で、コード共有は \url{https://github.com/DaniSchober/LabLiquidVision} で行われ、新しく導入されたデータセット LabLiquidVolume はhttps://data.dtu.dk/articles/dataset/LabLiquidVision/25103102 で利用可能です。
関連論文リスト
- LucidGrasp: Robotic Framework for Autonomous Manipulation of Laboratory Equipment with Different Degrees of Transparency via 6D Pose Estimation [8.961549735358213]
この作業には、液体で満たされた物体を操作するための自律モードを備えたロボットフレームワークの開発が含まれる。
提案するロボットフレームワークは、非自明な操作タスクを実行する問題を解くことができるため、実験室の自動化に応用できる。
論文 参考訳(メタデータ) (2024-10-10T10:40:42Z) - AlabOS: A Python-based Reconfigurable Workflow Management Framework for Autonomous Laboratories [3.8330070166920556]
実験のオーケストレーションとリソース管理のための汎用ソフトウェアフレームワークであるAlabOSを紹介する。
AlabOSは再構成可能な実験ワークフローモデルとリソース予約機構を備えており、様々なタスクの同時実行を可能にする。
1.5年間に約3,500のサンプルを合成したA-Labの試作実験室で,AlabOSの実装を実演した。
論文 参考訳(メタデータ) (2024-05-22T18:59:39Z) - Robot Fleet Learning via Policy Merging [58.5086287737653]
我々はFLEET-MERGEを提案し、艦隊設定における政策を効率的にマージする。
本稿では,FLEET-MERGEがメタワールド環境における50のタスクで訓練されたポリシーの行動を統合することを示す。
合成・接触に富んだロボット操作タスクにおけるフリートポリシー学習のための新しいロボットツール用ベンチマークであるFLEET-TOOLSを導入する。
論文 参考訳(メタデータ) (2023-10-02T17:23:51Z) - Closing the loop: Autonomous experiments enabled by
machine-learning-based online data analysis in synchrotron beamline
environments [80.49514665620008]
機械学習は、大規模または高速に生成されたデータセットを含む研究を強化するために使用できる。
本研究では,X線反射法(XRR)のための閉ループワークフローへのMLの導入について述べる。
本研究では,ビームライン制御ソフトウェア環境に付加的なソフトウェア依存関係を導入することなく,実験中の基本データ解析をリアルタイムで行うソリューションを提案する。
論文 参考訳(メタデータ) (2023-06-20T21:21:19Z) - FluidLab: A Differentiable Environment for Benchmarking Complex Fluid
Manipulation [80.63838153351804]
複雑な流体力学を含む多種多様な操作タスクを備えたシミュレーション環境であるFluidLabを紹介する。
私たちのプラットフォームの中心には、GPU加速シミュレーションと勾配計算を提供する、完全に微分可能な物理シミュレータがあります。
微分可能物理学と組み合わせたいくつかのドメイン固有最適化スキームを提案する。
論文 参考訳(メタデータ) (2023-03-04T07:24:22Z) - Learn Fast, Segment Well: Fast Object Segmentation Learning on the iCub
Robot [20.813028212068424]
我々は、新しいオブジェクトや異なるドメインの存在下で、オブジェクトセグメンテーションモデルに適応できる様々な技術について研究する。
データをストリーム化するロボットアプリケーションのための高速なインスタンスセグメンテーション学習のためのパイプラインを提案する。
提案したパイプラインを2つのデータセットでベンチマークし、実際のロボットであるiCubヒューマノイドにデプロイする。
論文 参考訳(メタデータ) (2022-06-27T17:14:04Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - SAGCI-System: Towards Sample-Efficient, Generalizable, Compositional,
and Incremental Robot Learning [41.19148076789516]
上記の4つの要件を満たすために,SAGCIシステムと呼ばれる体系的な学習フレームワークを導入する。
本システムはまず,ロボットの手首に搭載されたカメラによって収集された生点雲を入力とし,URDFに代表される周囲環境の初期モデリングを生成する。
そのロボットは、対話的な知覚を利用して環境と対話し、URDFのオンライン検証と修正を行う。
論文 参考訳(メタデータ) (2021-11-29T16:53:49Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Integrated Benchmarking and Design for Reproducible and Accessible
Evaluation of Robotic Agents [61.36681529571202]
本稿では,開発とベンチマークを統合した再現性ロボット研究の新しい概念について述べる。
このセットアップの中心的なコンポーネントの1つはDuckietown Autolabであり、これは比較的低コストで再現可能な標準化されたセットアップである。
本研究では,インフラを用いて実施した実験の再現性を解析し,ロボットのハードウェアや遠隔実験室間でのばらつきが低いことを示す。
論文 参考訳(メタデータ) (2020-09-09T15:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。