論文の概要: RethNet: Object-by-Object Learning for Detecting Facial Skin Problems
- arxiv url: http://arxiv.org/abs/2101.02127v2
- Date: Mon, 11 Jan 2021 19:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 04:41:11.835857
- Title: RethNet: Object-by-Object Learning for Detecting Facial Skin Problems
- Title(参考訳): rethnet: 顔の皮膚問題を検出するためのオブジェクト・バイ・オブジェクト学習
- Authors: Shohrukh Bekmirzaev, Seoyoung Oh, Sangwook Yoo
- Abstract要約: 11種類の顔面皮膚病変を検出するためのオブジェクト・バイ・オブジェクト・ラーニング手法を提案する。
提案モデルは,deeplab v3+よりも15.34%向上した,データセットテストで79.46%のmiouに到達した。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic segmentation is a hot topic in computer vision where the most
challenging tasks of object detection and recognition have been handling by the
success of semantic segmentation approaches. We propose a concept of
object-by-object learning technique to detect 11 types of facial skin lesions
using semantic segmentation methods. Detecting individual skin lesion in a
dense group is a challenging task, because of ambiguities in the appearance of
the visual data. We observe that there exist co-occurrent visual relations
between object classes (e.g., wrinkle and age spot, or papule and whitehead,
etc.). In fact, rich contextual information significantly helps to handle the
issue. Therefore, we propose REthinker blocks that are composed of the locally
constructed convLSTM/Conv3D layers and SE module as a one-shot attention
mechanism whose responsibility is to increase network's sensitivity in the
local and global contextual representation that supports to capture ambiguously
appeared objects and co-occurrence interactions between object classes.
Experiments show that our proposed model reached MIoU of 79.46% on the test of
a prepared dataset, representing a 15.34% improvement over Deeplab v3+ (MIoU of
64.12%).
- Abstract(参考訳): セマンティックセグメンテーションはコンピュータビジョンにおけるホットトピックであり、オブジェクトの検出と認識の最も困難なタスクはセマンティックセグメンテーションの成功によって対処されてきた。
意味的セグメンテーション法を用いて,11種類の顔面皮膚病変を検出するための物体別学習手法を提案する。
濃厚なグループにおける個々の皮膚病変の検出は、視覚データの外観のあいまいさのため、難しい課題である。
我々は、オブジェクトクラス(例えば、しわと年齢の斑点、または、乳頭と白頭など)の間に共変する視覚関係が存在することを観察する。
実際、リッチなコンテキスト情報はこの問題を解決するのに大いに役立ちます。
そこで本稿では,局所的に構築されたconvLSTM/Conv3D層とSEモジュールから構成されるRethinkerブロックを提案する。
実験の結果、提案したモデルはデータセットの試験で79.46%のMIoUに達し、Deeplab v3+(64.12%のMIoU)よりも15.34%改善した。
関連論文リスト
- Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Self-Supervised Learning of Object Parts for Semantic Segmentation [7.99536002595393]
我々は、オブジェクト部品の自己教師型学習がこの問題の解決策であると主張している。
本手法は3つのセマンティックセグメンテーションベンチマークの最先端を17%-3%超える。
論文 参考訳(メタデータ) (2022-04-27T17:55:17Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - 3D AffordanceNet: A Benchmark for Visual Object Affordance Understanding [33.68455617113953]
本稿では,23のセマンティックオブジェクトカテゴリから23kの形状のベンチマークである3D AffordanceNetデータセットについて述べる。
3つの最先端のポイントクラウドディープラーニングネットワークがすべてのタスクで評価されます。
論文 参考訳(メタデータ) (2021-03-30T14:46:27Z) - Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion [9.536947328412198]
本稿では,隠蔽に頑健な多目的インスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学習し、オクローダの発見に役立てています。
特に、オブジェクトクラスとそのインスタンスおよびオクルーダーセグメンテーションのフィードフォワード予測を得る。
論文 参考訳(メタデータ) (2020-12-03T17:41:55Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - A Deep Learning Approach to Object Affordance Segmentation [31.221897360610114]
我々は,ビデオと静的画像の両方において,画素単位の価格ラベルを推定するオートエンコーダを設計する。
本モデルは,ソフトアテンション機構を用いて,オブジェクトラベルやバウンディングボックスの必要性を克服する。
本モデルは,SOR3D-AFF上での強い教師付き手法と比較して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-18T15:34:41Z) - Panoptic Feature Fusion Net: A Novel Instance Segmentation Paradigm for
Biomedical and Biological Images [91.41909587856104]
本稿では,本研究における意味的特徴とインスタンス的特徴を統一するPanoptic Feature Fusion Net(PFFNet)を提案する。
提案するPFFNetには,インスタンス予測を意味的特徴に組み込むための残注意特徴融合機構が組み込まれている。
様々なバイオメディカルおよび生物学的データセットにおいて、最先端のいくつかの手法を上回ります。
論文 参考訳(メタデータ) (2020-02-15T09:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。