論文の概要: Grasp-Oriented Fine-grained Cloth Segmentation without Real Supervision
- arxiv url: http://arxiv.org/abs/2110.02903v1
- Date: Wed, 6 Oct 2021 16:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:23:01.119105
- Title: Grasp-Oriented Fine-grained Cloth Segmentation without Real Supervision
- Title(参考訳): 実監督のない把持型細粒布セグメンテーション
- Authors: Ruijie Ren, Mohit Gurnani Rajesh, Jordi Sanchez-Riera, Fan Zhang,
Yurun Tian, Antonio Agudo, Yiannis Demiris, Krystian Mikolajczyk and Francesc
Moreno-Noguer
- Abstract要約: 本稿では, 深度画像のみを用いて, 変形した衣服のきめ細かい領域検出の問題に取り組む。
最大で6つの意味領域を定義し, 首の縁, スリーブカフ, ヘム, 上と下をつかむ点を含む。
これらの部品のセグメント化とラベル付けを行うために,U-net ベースのネットワークを導入する。
合成データのみを用いてネットワークをトレーニングし、提案したDAが実データでトレーニングしたモデルと競合する結果が得られることを示す。
- 参考スコア(独自算出の注目度): 66.56535902642085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatically detecting graspable regions from a single depth image is a key
ingredient in cloth manipulation. The large variability of cloth deformations
has motivated most of the current approaches to focus on identifying specific
grasping points rather than semantic parts, as the appearance and depth
variations of local regions are smaller and easier to model than the larger
ones. However, tasks like cloth folding or assisted dressing require
recognising larger segments, such as semantic edges that carry more information
than points. The first goal of this paper is therefore to tackle the problem of
fine-grained region detection in deformed clothes using only a depth image. As
a proof of concept, we implement an approach for T-shirts, and define up to 6
semantic regions of varying extent, including edges on the neckline, sleeve
cuffs, and hem, plus top and bottom grasping points. We introduce a U-net based
network to segment and label these parts. The second contribution of our work
is concerned with the level of supervision that we require to train the
proposed network. While most approaches learn to detect grasping points by
combining real and synthetic annotations, in this work we defy the limitations
of the synthetic data, and propose a multilayered domain adaptation (DA)
strategy that does not use real annotations at all. We thoroughly evaluate our
approach on real depth images of a T-shirt annotated with fine-grained labels.
We show that training our network solely with synthetic data and the proposed
DA yields results competitive with models trained on real data.
- Abstract(参考訳): 布操作において、一深度画像から把握可能な領域を自動的に検出することが重要な要素である。
布の変形の大きなばらつきは、局所領域の外観や深さの変化がより小さく、よりモデル化しやすいため、意味的部分よりも特定の把握点を特定することに集中する現在のアプローチのほとんどを動機付けている。
しかし、布の折り畳みや補助ドレッシングのようなタスクは、ポイントよりも多くの情報を運ぶセマンティックエッジのようなより大きなセグメントを認識する必要がある。
そこで本論文の第一の目的は, 深度画像のみを用いた変形衣服のきめ細かい領域検出問題に取り組むことである。
概念実証として,tシャツのアプローチを実装し,ネックライン,スリーブカフ,ヘムのエッジ,上下の把持点など,さまざまな範囲のセマンティック領域を最大6つ定義する。
これらの部品を分割・ラベル付けするためのU-netネットワークを導入する。
作業の第2の貢献は、提案されたネットワークのトレーニングに必要な監督レベルに関するものです。
実際のアノテーションと合成アノテーションを組み合わせることで、ほとんどのアプローチが把握ポイントを検出することを学ぶ一方で、本研究では合成データの制限を解消し、実際のアノテーションを使用しない多層化ドメイン適応(da)戦略を提案する。
細粒度ラベルを付加したTシャツの深度画像に対するアプローチを徹底的に評価した。
提案するdaと合成データのみでネットワークをトレーニングすることで,実データでトレーニングしたモデルと競合する結果が得られることを示す。
関連論文リスト
- 3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching
between 3D and 2D Networks [26.29122638813974]
本稿では,3次元ネットワークと2次元ネットワークの相互学習を用いて,スパースアノテーションから頑健に学習できるフレームワークを提案する。
MMWHSデータセットに対する実験結果から,本手法は最先端(SOTA)半教師付きセグメンテーション法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-30T15:26:17Z) - ReFit: A Framework for Refinement of Weakly Supervised Semantic
Segmentation using Object Border Fitting for Medical Images [4.945138408504987]
Weakly Supervised Semantic (WSSS)は、画像レベルの監視のみに依存しているため、ネットワークの必要性に対処する上で有望なアプローチである。
本稿では,最新クラスのアクティベーションマップとポストプロセッシング手法を組み合わせたReFitフレームワークを提案する。
本手法をWSSS予測に適用することにより,医用画像の最先端WSSS法に対して最大10%の改善を実現した。
論文 参考訳(メタデータ) (2023-03-14T12:46:52Z) - Progressively Dual Prior Guided Few-shot Semantic Segmentation [57.37506990980975]
Few-shotのセマンティックセマンティックセマンティクスタスクは、いくつかのアノテーション付きサポートサンプルを使用して、クエリイメージのセマンティクスを実行することを目的としている。
本稿では,先進的に2重にガイドされた数発のセマンティックセマンティックセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2022-11-20T16:19:47Z) - Semi-supervised domain adaptation with CycleGAN guided by a downstream
task loss [4.941630596191806]
ドメイン適応は、ラベル付けが高価でエラーを起こしやすいタスクであるため、非常に興味深い。
画像から画像へのアプローチは、入力のシフトを軽減するために使用することができる。
本稿では、画像から画像へのドメイン適応アプローチにおいて、GANの「タスク認識」バージョンを提案する。
論文 参考訳(メタデータ) (2022-08-18T13:13:30Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Every Annotation Counts: Multi-label Deep Supervision for Medical Image
Segmentation [85.0078917060652]
この障壁を克服する半弱教師付きセグメンテーションアルゴリズムを提案する。
このアプローチは,深層指導と生徒・教師モデルの新しい定式化に基づいている。
我々の新しいセグメンテーションのトレーニング体制は、完全にラベル付けされ、バウンディングボックスでマークされた画像、単にグローバルラベル、あるいは全くないイメージを柔軟に活用することで、高価なラベルの要件を94.22%削減することができる。
論文 参考訳(メタデータ) (2021-04-27T14:51:19Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Context-aware Attentional Pooling (CAP) for Fine-grained Visual
Classification [2.963101656293054]
深層畳み込みニューラルネットワーク(CNN)は、画像認識のための識別対象ポーズと部品情報をマイニングする強力な能力を示しています。
サブピクセル勾配による微妙な変化を効果的にとらえる新しいコンテキスト認識型注意プーリング(CAP)を提案する。
我々は6つの最先端(SotA)バックボーンネットワークと8つのベンチマークデータセットを用いてアプローチを評価した。
論文 参考訳(メタデータ) (2021-01-17T10:15:02Z) - Phase Consistent Ecological Domain Adaptation [76.75730500201536]
意味的セグメンテーション(意味的セグメンテーション)の課題に焦点をあてる。そこでは、注釈付き合成データが多用されるが、実際のデータへのアノテートは困難である。
視覚心理学に触発された最初の基準は、2つの画像領域間の地図が位相保存であることである。
第2の基準は、照明剤や撮像センサーの特性に関わらず、その画像に現れる環境統計、またはシーン内の規則を活用することを目的としている。
論文 参考訳(メタデータ) (2020-04-10T06:58:03Z) - Manifold-driven Attention Maps for Weakly Supervised Segmentation [9.289524646688244]
本稿では,視覚的に有意な領域を強化するために,多様体駆動型注意ネットワークを提案する。
提案手法は,余分な計算を必要とせずに,推論中により優れた注意マップを生成できる。
論文 参考訳(メタデータ) (2020-04-07T00:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。