論文の概要: Phase-Interface Instance Segmentation as a Visual Sensor for Laboratory Process Monitoring
- arxiv url: http://arxiv.org/abs/2603.10782v1
- Date: Wed, 11 Mar 2026 13:55:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.978357
- Title: Phase-Interface Instance Segmentation as a Visual Sensor for Laboratory Process Monitoring
- Title(参考訳): 検査プロセスモニタリングのための視覚センサとしてのフェーズインタフェースインスタンスセグメンテーション
- Authors: Mingyue Li, Xin Yang, Shilin Yan, Jinye Ran, Morui Zhu, Zirui Peng, Huanqing Peng, Wei Peng, Guanghua Zhang, Shuo Li, Hao Zhang,
- Abstract要約: 我々は,3,668イメージと23のガラス製品カテゴリを備えた容器対応ベンチマークであるChemical Transparent Glasses dataset 2.0 (CTG 2.0)を紹介した。
本研究では,ロバストな意味表現にLGA(Local-Global Attention)と境界修正にRCM(Rectangular Self-Calibration Module)を組み合わせたLGA-RCM-YOLOを提案する。
CTG 2.0では、提案モデルは84.4%のAP@0.5と58.43%のAP@0.5-0.95を達成し、それぞれYOLO11mベースラインを6.42および8.75APポイント改善した。
- 参考スコア(独自算出の注目度): 16.915862339052328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable visual monitoring of chemical experiments remains challenging in transparent glassware, where weak phase boundaries and optical artifacts degrade conventional segmentation. We formulate laboratory phenomena as the time evolution of phase interfaces and introduce the Chemical Transparent Glasses dataset 2.0 (CTG 2.0), a vessel-aware benchmark with 3,668 images, 23 glassware categories, and five multiphase interface types for phase-interface instance segmentation. Building on YOLO11m-seg, we propose LGA-RCM-YOLO, which combines Local-Global Attention (LGA) for robust semantic representation and a Rectangular Self-Calibration Module (RCM) for boundary refinement of thin, elongated interfaces. On CTG 2.0, the proposed model achieves 84.4% AP@0.5 and 58.43% AP@0.5-0.95, improving over the YOLO11m baseline by 6.42 and 8.75 AP points, respectively, while maintaining near real-time inference (13.67 FPS, RTX 3060). An auxiliary color-attribute head further labels liquid instances as colored or colorless with 98.71% precision and 98.32% recall. Finally, we demonstrate continuous process monitoring in separatory-funnel phase separation and crystallization, showing that phase-interface instance segmentation can serve as a practical visual sensor for laboratory automation.
- Abstract(参考訳): 化学実験の信頼性の高い視覚的モニタリングは、従来のセグメンテーションを劣化させる弱い位相境界と光学的アーティファクトを持つ透明ガラス製品では依然として困難である。
我々は,相界面の時間的進化として実験室現象を定式化し,3,668イメージ,23のガラス製品カテゴリ,および相界面インスタンスセグメンテーションのための5つの多相界面タイプを備えた容器対応ベンチマークであるChemical Transparent Glasses dataset 2.0(CTG 2.0)を紹介する。
YOLO11m-seg上に構築したLGA-RCM-YOLOは,ロバストなセマンティック表現のためのローカル・グローバル・アテンション(LGA)と,細長いインタフェースの境界修正のための矩形自己校正モジュール(RCM)を組み合わせたものである。
CTG 2.0では、提案されたモデルは84.4%のAP@0.5と58.43%のAP@0.5-0.95を達成し、ほぼリアルタイムな推論(13.67 FPS、RTX 3060)を維持しながら、YOLO11mベースラインを6.42と8.75 APポイント改善した。
補助的なカラー属性ヘッドは、液体のインスタンスを98.71%の精度と98.32%のリコールで、色または無色とラベル付けする。
最後に, 分離ファンネル相分離および結晶化における連続的プロセスモニタリングを実証し, 相界面インスタンスのセグメンテーションが実験室自動化のための実用的な視覚センサとして機能することを示した。
関連論文リスト
- MI-DETR: A Strong Baseline for Moving Infrared Small Target Detection with Bio-Inspired Motion Integration [63.87179575890912]
我々は、赤外線小ターゲット検出のためのバイオインスパイアされたデュアルパス検出装置であるモーション統合DETR(MI-DETR)を提案する。
まず、網膜にインスパイアされたセルオートマトン(RCA)は、生フレーム配列を外観画像と同じピクセルグリッド上に定義されたモーションマップに変換する。
第二に、PMI(Parvocellular-Magnocellular Interconnection)ブロックは2つの経路間の双方向の特徴的相互作用を促進する。
論文 参考訳(メタデータ) (2026-03-05T11:39:31Z) - From Static Spectra to Operando Infrared Dynamics: Physics Informed Flow Modeling and a Benchmark [67.29937933325849]
Operando IR Predictionは、1つの静的スペクトルからスペクトル指紋の時間分解進化を予測することを目的としている。
OpIRSpec-7Kは、10の異なるバッテリーシステムにわたる7,118の高品質なサンプルで構成されている。
ABCCは最先端の静的、シーケンシャル、および生成的ベースラインを著しく上回る。
論文 参考訳(メタデータ) (2026-02-20T18:58:43Z) - Cross-Modal Alignment and Fusion for RGB-D Transmission-Line Defect Detection [11.637942429146172]
本稿では,RGBの外観と深度幾何学を原理化されたヒューズ・パラダイムを通じて統合したクロスモーダルアライメント・アンド・フュージョン・ネットワークであるCMAFNetを提案する。
CMAFNetは、辞書ベースの特徴浄化を行うセマンティック再構成モジュールで構成されている。
軽量な派生型は228 FPSで24.8% mAP50に達し、わずか4.9Mのパラメータしか持たない。
論文 参考訳(メタデータ) (2026-02-02T06:11:33Z) - Synthetic-to-Real Transfer Learning for Chromatin-Sensitive PWS Microscopy [0.0]
本稿では,CFUデータに3段階のカリキュラムを組み込んだ階層型セグメンテーションアーキテクチャであるCFU Netを提案する。
提案手法は,実験的に支持されたパッキング統計,Mie散乱モデル,モーダリティ比雑音を取り入れた物理ベースのレンダリングと,逆方向の事前学習から分光微視的微視的チューニング,組織学的検証に至るまでのカリキュラムを併用する。
論文 参考訳(メタデータ) (2025-10-25T10:00:34Z) - Beyond RGB: Leveraging Vision Transformers for Thermal Weapon Segmentation [0.0]
ビジョントランスフォーマー(ViT)は、RGBセグメンテーションタスクにおいて最先端の結果を達成したが、熱兵器セグメンテーションのポテンシャルは未定のままである。
この研究は、カスタムの熱データセット上でバイナリ兵器セグメンテーションのための4つのトランスフォーマーベースのアーキテクチャを適応し、評価する。
論文 参考訳(メタデータ) (2025-10-19T16:15:04Z) - Hyperspectral Mamba for Hyperspectral Object Tracking [56.365517163296936]
Mamba (HyMamba) を用いた新しいハイパースペクトル物体追跡ネットワークを提案する。
状態空間モジュール(SSM)によるスペクトル、クロスディープス、時間モデリングを統一する。
HyMambaは、7つのベンチマークデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-10T03:47:43Z) - Multi-Scale Spectral Attention Module-based Hyperspectral Segmentation in Autonomous Driving Scenarios [3.437245452211197]
本稿では,スペクトル特徴抽出を強化したマルチスケール分光アテンションモジュール(MSAM)を提案する。
MSAMをUNetのスキップ接続(UNet-SC)に統合することにより,提案したUNet-MSAMはセマンティックセグメンテーション性能を大幅に改善する。
論文 参考訳(メタデータ) (2025-06-23T14:24:20Z) - Coordinate Transformer: Achieving Single-stage Multi-person Mesh
Recovery from Videos [91.44553585470688]
ビデオから複数人の3Dメッシュを回収することは、バーチャルリアリティーや理学療法などにおけるグループ行動の自動認識に向けた重要な第一歩である。
本稿では,複数人物の時空間関係を直接モデル化し,同時にエンドツーエンドでマルチ・メッシュ・リカバリを行うコーディネート・トランスフォーマーを提案する。
3DPWデータセットの実験では、CoordFormerが最先端の精度を大幅に向上し、MPJPE、PAMPJPE、PVEの計測値でそれぞれ4.2%、8.8%、そして4.7%を上回った。
論文 参考訳(メタデータ) (2023-08-20T18:23:07Z) - Global Context Vision Transformers [78.5346173956383]
我々は,コンピュータビジョンのパラメータと計算利用を向上する新しいアーキテクチャであるGC ViT(Global context vision transformer)を提案する。
本稿では,ViTにおける帰納バイアスの欠如に対処し,アーキテクチャにおける可溶性逆残差ブロックを改良して活用することを提案する。
提案したGC ViTは,画像分類,オブジェクト検出,セマンティックセマンティックセグメンテーションタスクにまたがる最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-06-20T18:42:44Z) - ASFD: Automatic and Scalable Face Detector [59.31799101216593]
本稿では,既存の全FAEモジュールをかなりの差で検出し,優れたFAEアーキテクチャであるAutoFAEを探索することを提案する。
特に、当社の強力な ASFD-D6 は WIDER Face テストで AP 96.7/96.2/92.1 よりも優れており、軽量の ASFD-D0 は約3.1 ms で 320 FPS 以上である。
論文 参考訳(メタデータ) (2022-01-26T07:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。