論文の概要: ViscNet: Vision-Based In-line Viscometry for Fluid Mixing Process
- arxiv url: http://arxiv.org/abs/2512.01268v2
- Date: Tue, 02 Dec 2025 02:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 14:50:32.088953
- Title: ViscNet: Vision-Based In-line Viscometry for Fluid Mixing Process
- Title(参考訳): ViscNet: 流体混合プロセスのためのビジョンベースインライン粘度測定
- Authors: Jongwon Sohn, Juhyeon Moon, Hyunjoon Jung, Jaewook Nam,
- Abstract要約: 混合駆動型連続変形自由表面を通した光屈折により、固定背景パターンが光学的に歪む方法を利用して粘度を推定するコンピュータビジョン型粘度計を提案する。
このシステムは、回帰のためにlog m2 s-1単位の平均絶対誤差0.113を達成し、粘度クラスの予測では最大81%の精度に達する。
- 参考スコア(独自算出の注目度): 3.8744272299940903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Viscosity measurement is essential for process monitoring and autonomous laboratory operation, yet conventional viscometers remain invasive and require controlled laboratory environments that differ substantially from real process conditions. We present a computer-vision-based viscometer that infers viscosity by exploiting how a fixed background pattern becomes optically distorted as light refracts through the mixing-driven, continuously deforming free surface. Under diverse lighting conditions, the system achieves a mean absolute error of 0.113 in log m2 s^-1 units for regression and reaches up to 81% accuracy in viscosity-class prediction. Although performance declines for classes with closely clustered viscosity values, a multi-pattern strategy improves robustness by providing enriched visual cues. To ensure sensor reliability, we incorporate uncertainty quantification, enabling viscosity predictions with confidence estimates. This stand-off viscometer offers a practical, automation-ready alternative to existing viscometry methods.
- Abstract(参考訳): 粘度測定はプロセスモニタリングと自律的な実験室操作に不可欠であるが、従来の粘度計は侵襲的であり、実際のプロセス条件と大きく異なる制御された実験室環境を必要とする。
混合駆動型連続変形自由表面を通した光屈折により、固定背景パターンが光学的に歪む方法を利用して粘度を推定するコンピュータビジョン型粘度計を提案する。
様々な照明条件下では、回帰のためにlog m2 s^-1単位の平均絶対誤差は0.113であり、粘度クラスの予測では最大81%の精度に達する。
密集した粘度値を持つクラスのパフォーマンスは低下するが、マルチパターン戦略はリッチな視覚的手がかりを提供することでロバスト性を改善する。
センサの信頼性を確保するため、不確実な定量化を取り入れ、信頼性推定を伴う粘性予測を可能にする。
このスタンドオフ粘度計は、既存の粘度測定法に代わる実用的で自動化可能な代替手段を提供する。
関連論文リスト
- A systematic evaluation of uncertainty quantification techniques in deep learning: a case study in photoplethysmography signal analysis [1.6690512882610855]
ディープラーニングモデルは、臨床外の生理的パラメータを継続的に監視するために使用することができる。
実践的な測定シナリオに配備された場合、パフォーマンスが悪くなるリスクがあり、負の患者結果につながる。
ここでは、2つの臨床関連予測タスクで訓練されたモデルに対して、8つの不確実性(UQ)技術を実装する。
論文 参考訳(メタデータ) (2025-10-31T22:54:13Z) - FISHing in Uncertainty: Synthetic Contrastive Learning for Genetic Aberration Detection [1.3373458503586262]
既存のFISH画像分類手法は、信号のばらつきと本質的不確実性に起因する課題に直面している。
手動アノテーションの必要をなくすために合成画像を活用する新しい手法を提案する。
我々は,合成データに基づいて学習した手法の優れた一般化能力と不確実性を実証する。
論文 参考訳(メタデータ) (2024-11-01T20:50:48Z) - Regulating Model Reliance on Non-Robust Features by Smoothing Input Marginal Density [93.32594873253534]
信頼できる機械学習は、非ロバストな特徴に依存するモデルの厳密な規制を必要とする。
本稿では,モデル予測を入力に関連付けることによって,そのような特徴を記述・規制するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T09:16:56Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Fluid Viscosity Prediction Leveraging Computer Vision and Robot
Interaction [9.312155153982982]
本研究は,映像データから得られた流体振動を解析することにより,流体粘性予測の可能性を探るものである。
パイプラインは、自制的に事前訓練された3D畳み込みオートエンコーダを使用して、振動流体のセマンティックセグメンテーションマスクから特徴を抽出し、学習する。
事前訓練されたオートエンコーダによって生成された潜在表現を分類するために使用すると、システムは合計4140のテストデータポイントに対して97.1%の精度を達成する。
論文 参考訳(メタデータ) (2023-08-04T21:23:34Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。