論文の概要: Interactive segmentation using U-Net with weight map and dynamic user
interactions
- arxiv url: http://arxiv.org/abs/2111.09740v1
- Date: Thu, 18 Nov 2021 15:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 19:09:23.885941
- Title: Interactive segmentation using U-Net with weight map and dynamic user
interactions
- Title(参考訳): 重みマップと動的ユーザインタラクションを用いたu-netを用いたインタラクティブセグメンテーション
- Authors: Ragavie Pirabaharan and Naimul Khan
- Abstract要約: 本稿では,現在のセグメンテーションマスクに基づいてユーザクリックを動的にサイズに適応させるインタラクティブセグメンテーションフレームワークを提案する。
クリックされた領域は重みマップを形成し、新しい重み付き損失関数としてディープニューラルネットワークに供給される。
動的なユーザクリックサイズを適用すると、それぞれ5.60%と10.39%の精度が向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive segmentation has recently attracted attention for specialized
tasks where expert input is required to further enhance the segmentation
performance. In this work, we propose a novel interactive segmentation
framework, where user clicks are dynamically adapted in size based on the
current segmentation mask. The clicked regions form a weight map and are fed to
a deep neural network as a novel weighted loss function. To evaluate our loss
function, an interactive U-Net (IU-Net) model which applies both foreground and
background user clicks as the main method of interaction is employed. We train
and validate on the BCV dataset, while testing on spleen and colon cancer CT
images from the MSD dataset to improve the overall segmentation accuracy in
comparison to the standard U-Net using our weighted loss function. Applying
dynamic user click sizes increases the overall accuracy by 5.60% and 10.39%
respectively by utilizing only a single user interaction.
- Abstract(参考訳): 対話型セグメンテーションは、セグメンテーション性能をさらに向上させるためにエキスパートインプットを必要とする特殊なタスクに注目されている。
本研究では,ユーザクリックを現在のセグメンテーションマスクに基づいて動的にサイズに適応させる対話型セグメンテーションフレームワークを提案する。
クリックされた領域は重みマップを形成し、新しい重み付き損失関数としてディープニューラルネットワークに供給される。
損失関数を評価するために,前景と背景クリックの両方を主操作として適用する対話型u-net(iu-net)モデルを採用する。
重み付き損失関数を用いた標準U-Netと比較して,MSDデータセットからの脾・結腸癌CT画像を用いて,BCVデータセットのトレーニングと検証を行い,全体のセグメンテーション精度を向上させる。
動的なユーザクリックサイズを適用すると、それぞれ5.60%と10.39%の精度が向上する。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - TETRIS: Towards Exploring the Robustness of Interactive Segmentation [39.1981941213761]
対話型セグメンテーションモデルに対するホワイトボックス逆攻撃において, 直接最適化により極端なユーザ入力を見つける手法を提案する。
本報告では,多数のモデルについて広範囲な評価を行った結果について報告する。
論文 参考訳(メタデータ) (2024-02-09T01:36:21Z) - Contour-based Interactive Segmentation [4.164728134421114]
ユーザインタラクションの自然な形態をゆるい輪郭とみなし、輪郭に基づく対話的セグメンテーション手法を導入する。
一つの輪郭が複数のクリックと同じ精度で、ユーザインタラクションの必要量を減らすことを実証する。
論文 参考訳(メタデータ) (2023-02-13T13:35:26Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Clicking Matters:Towards Interactive Human Parsing [60.35351491254932]
この研究は、対話的な環境下での人間の解析課題に取り組む最初の試みである。
ベンチマークLIPでは85% mIoU,PASCAL-Person-Partでは80% mIoU,Helenでは75% mIoU,クラス毎のクリック数は1.95,3.02,2.84,1.09であった。
論文 参考訳(メタデータ) (2021-11-11T11:47:53Z) - Interactive Object Segmentation with Dynamic Click Transform [27.709779682559883]
本研究では,ユーザインタラクションをよりよく表現するために,空間的DCTと特徴的DCTで構成される動的クリック変換ネットワーク(DCT-Net)を提案する。
提案手法の有効性を実証し、3つの標準ベンチマークデータセットの最先端技術と比較して良好な性能を示す。
論文 参考訳(メタデータ) (2021-06-19T10:13:37Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Joint Object Contour Points and Semantics for Instance Segmentation [1.2117737635879038]
本稿では,物体境界に対するニューラルネットワークの注意を促すことを目的としたMask Point R-CNNを提案する。
具体的には、従来の人間のキーポイント検出タスクを、任意のオブジェクトの輪郭点検出に革新的に拡張する。
その結果、モデルはオブジェクトの端に対してより敏感になり、より幾何学的な特徴を捉えることができる。
論文 参考訳(メタデータ) (2020-08-02T11:11:28Z) - FAIRS -- Soft Focus Generator and Attention for Robust Object
Segmentation from Extreme Points [70.65563691392987]
本稿では,ユーザ入力からオブジェクトのセグメンテーションを極端点と補正クリックの形で生成する手法を提案する。
提案手法は,エクストリームポイント,クリック誘導,修正クリックを原則として組み込んだ,高品質なトレーニングデータを生成する能力とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2020-04-04T22:25:47Z) - Mining Implicit Entity Preference from User-Item Interaction Data for
Knowledge Graph Completion via Adversarial Learning [82.46332224556257]
本稿では,知識グラフ補完タスクにおけるユーザインタラクションデータを活用することで,新たな逆学習手法を提案する。
我々のジェネレータはユーザインタラクションデータから分離されており、識別器の性能を向上させるのに役立ちます。
利用者の暗黙の実体的嗜好を発見するために,グラフニューラルネットワークに基づく精巧な協調学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-03-28T05:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。