論文の概要: Learning to See Inside Opaque Liquid Containers using Speckle Vibrometry
- arxiv url: http://arxiv.org/abs/2507.20757v1
- Date: Mon, 28 Jul 2025 12:11:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.107089
- Title: Learning to See Inside Opaque Liquid Containers using Speckle Vibrometry
- Title(参考訳): スペックル・ビブロメトリーによる不透明液体容器内部の観察
- Authors: Matan Kichler, Shai Bagon, Mark Sheinin,
- Abstract要約: 視覚システムは、シーン内のコークス缶を検出して識別することができるが、缶が満杯か空かは判断できない。
本稿では,コンピュータビジョンの範囲を広げ,表面の微小振動を感知して不透明容器の液体レベルを推定する新たな課題を含むことを目的とする。
- 参考スコア(独自算出の注目度): 9.451929654161527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision seeks to infer a wide range of information about objects and events. However, vision systems based on conventional imaging are limited to extracting information only from the visible surfaces of scene objects. For instance, a vision system can detect and identify a Coke can in the scene, but it cannot determine whether the can is full or empty. In this paper, we aim to expand the scope of computer vision to include the novel task of inferring the hidden liquid levels of opaque containers by sensing the tiny vibrations on their surfaces. Our method provides a first-of-a-kind way to inspect the fill level of multiple sealed containers remotely, at once, without needing physical manipulation and manual weighing. First, we propose a novel speckle-based vibration sensing system for simultaneously capturing scene vibrations on a 2D grid of points. We use our system to efficiently and remotely capture a dataset of vibration responses for a variety of everyday liquid containers. Then, we develop a transformer-based approach for analyzing the captured vibrations and classifying the container type and its hidden liquid level at the time of measurement. Our architecture is invariant to the vibration source, yielding correct liquid level estimates for controlled and ambient scene sound sources. Moreover, our model generalizes to unseen container instances within known classes (e.g., training on five Coke cans of a six-pack, testing on a sixth) and fluid levels. We demonstrate our method by recovering liquid levels from various everyday containers.
- Abstract(参考訳): コンピュータビジョンは、オブジェクトやイベントに関する幅広い情報を推論しようとする。
しかし、従来の画像に基づく視覚システムは、シーンオブジェクトの可視面からのみ情報を抽出することに限定されている。
例えば、視覚システムはシーン内のコークス缶を検出して識別することができるが、缶がフルかどうかを判断することはできない。
本稿では,コンピュータビジョンの範囲を広げ,表面の微小振動を感知して不透明容器の液体レベルを推定する新たな課題を含むことを目的とする。
本手法は, 物理的操作や手動による重量測定を必要とせず, 遠隔で複数の密封容器の充填レベルを検査する方法である。
まず,2次元格子上のシーン振動を同時に捉えるためのスペックル型振動センサシステムを提案する。
我々は, 各種液体容器の振動応答のデータセットを効率よく, 遠隔で取得するシステムを開発した。
そこで我々は, 捕捉した振動を解析し, 容器型とその隠蔽液位を計測時に分類するための変圧器ベースの手法を開発した。
我々の構造は振動源に不変であり、制御された周囲の音源に対して正しい液体レベルの推定値が得られる。
さらに,本モデルでは,既知のクラス内のコンテナインスタンス(例:6パックの5つのCoke缶でのトレーニング,6パックのテスト)と流動レベルに一般化した。
各種の日常容器から液体レベルを回収し,本手法を実証する。
関連論文リスト
- ROOT: VLM based System for Indoor Scene Understanding and Beyond [83.71252153660078]
ROOTは、室内シーンの分析を強化するために設計されたVLMベースのシステムである。
rootnameは、屋内シーンの理解を促進し、3Dシーン生成や組み込みAIなど、さまざまな下流アプリケーションに有効であることを証明します。
論文 参考訳(メタデータ) (2024-11-24T04:51:24Z) - The Sound of Water: Inferring Physical Properties from Pouring Liquids [85.30865788636386]
注水液の音響・視覚観測と物理の関連性について検討した。
本研究の目的は, 液位, 容器形状, 注水速度, 充填時間などの物性を自動的に推定することである。
論文 参考訳(メタデータ) (2024-11-18T01:19:37Z) - AdaGlimpse: Active Visual Exploration with Arbitrary Glimpse Position and Scale [2.462953128215088]
Active Visual Exploration (AVE)は、観察(グランプ)を動的に選択するタスクである。
光ズーム機能を備えた既存のモバイルプラットフォームは、任意の位置とスケールを垣間見ることができる。
AdaGlimpseは、探索作業に適した強化学習アルゴリズムであるSoft Actor-Criticを使って、任意の位置と規模を垣間見る。
論文 参考訳(メタデータ) (2024-04-04T14:35:49Z) - SeaDSC: A video-based unsupervised method for dynamic scene change
detection in unmanned surface vehicles [3.2716252389196288]
本稿では,無人表面車両(USV)の動的シーン変化を検出するためのアプローチについて概説する。
本研究の目的は,海中映像データのダイナミックなシーン,特に高い類似性を示すシーンに顕著な変化を見出すことである。
本研究では,動的シーン変化検出システムにおいて,教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T07:34:01Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。