論文の概要: Self-supervised Transparent Liquid Segmentation for Robotic Pouring
- arxiv url: http://arxiv.org/abs/2203.01538v1
- Date: Thu, 3 Mar 2022 06:26:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 15:20:29.343483
- Title: Self-supervised Transparent Liquid Segmentation for Robotic Pouring
- Title(参考訳): ロボット注入のための自己教師付き透明液体セグメンテーション
- Authors: Gautham Narayan Narasimhan, Kai Zhang, Ben Eisner, Xingyu Lin, David
Held
- Abstract要約: 液体状態の推定は、注水などのロボティクスのタスクにおいて重要である。
色付き液体の画像から合成された透明な液体画像への変換が可能な生成モデルを用いる。
手動のアノテーションを必要とせずに透明液体のセグメンテーションマスクを正確に予測することができる。
- 参考スコア(独自算出の注目度): 15.174709965663299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Liquid state estimation is important for robotics tasks such as pouring;
however, estimating the state of transparent liquids is a challenging problem.
We propose a novel segmentation pipeline that can segment transparent liquids
such as water from a static, RGB image without requiring any manual annotations
or heating of the liquid for training. Instead, we use a generative model that
is capable of translating images of colored liquids into synthetically
generated transparent liquid images, trained only on an unpaired dataset of
colored and transparent liquid images. Segmentation labels of colored liquids
are obtained automatically using background subtraction. Our experiments show
that we are able to accurately predict a segmentation mask for transparent
liquids without requiring any manual annotations. We demonstrate the utility of
transparent liquid segmentation in a robotic pouring task that controls pouring
by perceiving the liquid height in a transparent cup. Accompanying video and
supplementary materials can be found
- Abstract(参考訳): 液体状態の推定は注ぐなどのロボット作業において重要であるが、透明液体の状態の推定は難しい問題である。
本研究では,rgb画像から水などの透明な液体を,手作業による注記や加熱を必要とせずにセグメント化できる新しいセグメンテーションパイプラインを提案する。
代わりに、色付き液体の画像から合成生成した透明な液体画像に変換可能な生成モデルを用いて、色付きおよび透明な液体画像の非ペア化データセットのみを訓練する。
背景減算を用いて色付き液体のセグメンテーションラベルを自動的に取得する。
実験の結果, 手動アノテーションを必要とせず, 透明液体のセグメンテーションマスクを正確に予測できることがわかった。
透明カップ内の液高さを知覚して注水を制御するロボット注水作業における透明液体セグメンテーションの有用性を実証する。
ビデオや補足資料も用意されている。
関連論文リスト
- The Sound of Water: Inferring Physical Properties from Pouring Liquids [85.30865788636386]
注水液の音響・視覚観測と物理の関連性について検討した。
本研究の目的は, 液位, 容器形状, 注水速度, 充填時間などの物性を自動的に推定することである。
論文 参考訳(メタデータ) (2024-11-18T01:19:37Z) - LiqD: A Dynamic Liquid Level Detection Model under Tricky Small
Containers [5.361320134021586]
本稿では,U2-Netに基づくコンテナ動的液位検出モデルを提案する。
実験結果から, 容器内の液体の動的液体レベル変化を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2024-03-13T05:53:25Z) - Fluid Viscosity Prediction Leveraging Computer Vision and Robot
Interaction [9.312155153982982]
本研究は,映像データから得られた流体振動を解析することにより,流体粘性予測の可能性を探るものである。
パイプラインは、自制的に事前訓練された3D畳み込みオートエンコーダを使用して、振動流体のセマンティックセグメンテーションマスクから特徴を抽出し、学習する。
事前訓練されたオートエンコーダによって生成された潜在表現を分類するために使用すると、システムは合計4140のテストデータポイントに対して97.1%の精度を達成する。
論文 参考訳(メタデータ) (2023-08-04T21:23:34Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Motion-inductive Self-supervised Object Discovery in Videos [99.35664705038728]
本稿では,連続的なRGBフレームの処理モデルを提案し,層状表現を用いて任意のフレーム間の光の流れを推定する。
3つの公開ビデオセグメンテーションデータセットにおいて,従来の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-01T08:38:28Z) - Differentiable Soft-Masked Attention [115.5770357189209]
Weakly Supervised Video Objectのタスクには,「識別可能なソフトマッシュアップ注意」が使用されている。
我々は、トランスフォーマーベースのトレーニングネットワークを開発したが、1つのアノテートフレームだけで、ビデオ上でのサイクル一貫性トレーニングの恩恵を受けることができる。
論文 参考訳(メタデータ) (2022-06-01T02:05:13Z) - Seeing Glass: Joint Point Cloud and Depth Completion for Transparent
Objects [16.714074893209713]
TranspareNetはジョイントポイントクラウドとディープコンプリートコンプリート方式である。
透明な物体の深さを、散らかって複雑な場面で埋めることができます。
TranspareNetは、既存の最先端のディープコンプリートメソッドを複数のデータセットで上回っている。
論文 参考訳(メタデータ) (2021-09-30T21:09:09Z) - Computer vision for liquid samples in hospitals and medical labs using
hierarchical image segmentation and relations prediction [0.0]
本研究は,透明容器内の医用流体試料の画像分割と分類におけるコンピュータビジョンの利用を考察する。
画像から液体や容器を正確に識別・分別できる能力は、そのようなプロセスを自動化するのに役立ちます。
現代のコンピュータビジョンは、通常、注釈付き画像の大きなデータセットでディープニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-05-04T12:39:39Z) - Image Compositing for Segmentation of Surgical Tools without Manual
Annotations [10.05087029666444]
特殊効果による手法を活用し、現実的なトレーニングデータセットの作成を自動化することを提案する。
クロマキーの上にサンプル手術器具を置くことにより、前景データをキャプチャする。
背景データは、楽器を含まないビデオの収集によって取得される。
半合成データのみを用いてバニラU-Netをトレーニングし、簡単な後処理を適用することで、公開可能な実データセットでトレーニングされた同じネットワークの結果と一致できることを示す。
論文 参考訳(メタデータ) (2021-02-18T18:14:43Z) - Self-Supervised Representation Learning from Flow Equivariance [97.13056332559526]
本稿では,複雑なシーンの映像ストリームに直接展開可能な,自己教師型学習表現フレームワークを提案する。
高分解能rawビデオから学んだ我々の表現は、静的画像の下流タスクに簡単に使用できます。
論文 参考訳(メタデータ) (2021-01-16T23:44:09Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。