論文の概要: Vision-based module for accurately reading linear scales in a laboratory
- arxiv url: http://arxiv.org/abs/2512.15327v1
- Date: Wed, 17 Dec 2025 11:24:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.957096
- Title: Vision-based module for accurately reading linear scales in a laboratory
- Title(参考訳): 実験室における線形スケールの精度向上のための視覚ベースモジュール
- Authors: Parvesh Saini, Soumyadipta Maiti, Beena Rai,
- Abstract要約: 我々は、線形スケールから測定を読み取るために、人間にインスパイアされたアプローチを模倣しようと試みる。
主要なメーカー、対応する数字、レベルインジケータの位置など、一連の特徴が抽出された。
また,本システムを用いて得られた読み出し値と同一事例の人間の読み出し値とを比較した。
- 参考スコア(独自算出の注目度): 2.8411183623012666
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Capabilities and the number of vision-based models are increasing rapidly. And these vision models are now able to do more tasks like object detection, image classification, instance segmentation etc. with great accuracy. But models which can take accurate quantitative measurements form an image, as a human can do by just looking at it, are rare. For a robot to work with complete autonomy in a Laboratory environment, it needs to have some basic skills like navigation, handling objects, preparing samples etc. to match human-like capabilities in an unstructured environment. Another important capability is to read measurements from instruments and apparatus. Here, we tried to mimic a human inspired approach to read measurements from a linear scale. As a test case we have picked reading level from a syringe and a measuring cylinder. For a randomly oriented syringe we carry out transformations to correct the orientation. To make the system efficient and robust, the area of interest is reduced to just the linear scale containing part of the image. After that, a series of features were extracted like the major makers, the corresponding digits, and the level indicator location, from which the final reading was calculated. Readings obtained using this system were also compared against human read values of the same instances and an accurate correspondence was observed.
- Abstract(参考訳): 能力と視覚に基づくモデルの数は急速に増加している。
これらのビジョンモデルは、オブジェクトの検出、画像分類、インスタンスのセグメンテーションなどのタスクを、非常に正確に行うことができる。
しかし、正確に定量的に測定できるモデルは、人間がそれを見るだけでできるように、画像を形成することは稀だ。
ロボットが実験室の環境で完全に自律的に働くためには、ナビゲーション、オブジェクトの処理、サンプルの作成などの基本的なスキルを、非構造化環境で人間に似た能力に合わせる必要がある。
もう1つの重要な機能は、機器や機器から測定を読み取ることである。
そこで我々は,線形スケールから測定を読み取るために,人間にインスパイアされたアプローチを模倣しようと試みた。
テストケースではシリンジと測定シリンダーから読み出しレベルを選択した。
ランダムに向き付けられたシリンジに対して、向きを正すために変換を実行する。
システムを効率的かつ堅牢にするために、関心領域を画像の一部を含む線形スケールに縮小する。
その後、主要メーカー、対応する桁、レベル表示位置などの一連の特徴を抽出し、最終的な読み出しを計算した。
また,本システムを用いて得られた読影データを同一事例の読影値と比較し,正確な対応を観察した。
関連論文リスト
- Do Vision-Language Models Measure Up? Benchmarking Visual Measurement Reading with MeasureBench [4.095423692230828]
Measure-Benchは、実世界と合成された様々な種類の計測画像の両方をカバーする、視覚的計測読影のベンチマークである。
我々のパイプラインは、制御可能な視覚的外観を持つ特定タイプのゲージを手続き的に生成する。
論文 参考訳(メタデータ) (2025-10-30T17:20:51Z) - Grad-CAMO: Learning Interpretable Single-Cell Morphological Profiles from 3D Cell Painting Images [0.0]
教師付き特徴抽出器のための新しい単一セル解釈可能性スコアであるGrad-CAMOを紹介する。
Grad-CAMOは、関心の細胞と背景の細胞に集中しているモデルの注意率を測定する。
論文 参考訳(メタデータ) (2024-03-26T11:48:37Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - A Number Sense as an Emergent Property of the Manipulating Brain [16.186932790845937]
本研究では,人間が数量や量を操作する能力を習得し,発達させるメカニズムについて考察する。
我々のモデルは、シーン内のオブジェクトの数を推定する能力を得る。
我々は,簡単な事前学習作業から,数と量を持つ施設の重要側面を指導して学ぶことができると結論付けた。
論文 参考訳(メタデータ) (2020-12-08T00:37:35Z) - A robot that counts like a child: a developmental model of counting and
pointing [69.26619423111092]
実物を数えることができる新しい神経ロボティクスモデルを導入する。
このモデルにより,エンボディメントと数値認識の相互作用を調べることができる。
トレーニングされたモデルは、アイテムのセットをカウントすることができ、同時にそれらを指し示します。
論文 参考訳(メタデータ) (2020-08-05T21:06:27Z) - Learning Transferable Push Manipulation Skills in Novel Contexts [3.1981440103815717]
我々は、ロボットが新しい状況であっても物理的相互作用の結果を予測することができるプッシュインタラクションのためのパラメトリック内部モデルを学ぶ。
様々な条件下で合計24,000回のプッシュで2つのオブジェクトをトレーニングし、合計14,400回のプッシュ結果で6つのオブジェクトをテストします。
その結果,偏りや偏りのない予測器は,慎重に調整された物理シミュレータの結果と一致して,確実に予測を生成できることがわかった。
論文 参考訳(メタデータ) (2020-07-29T11:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。