論文の概要: DISIR: Deep Image Segmentation with Interactive Refinement
- arxiv url: http://arxiv.org/abs/2003.14200v2
- Date: Thu, 20 Aug 2020 14:04:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 01:41:32.048769
- Title: DISIR: Deep Image Segmentation with Interactive Refinement
- Title(参考訳): disir:インタラクティブな改良による深部画像分割
- Authors: Gaston Lenczner, Bertrand Le Saux, Nicola Luminari, Adrien Chan Hon
Tong and Guy Le Besnerais
- Abstract要約: 本稿では,空中画像のマルチクラスセグメンテーションのためのインタラクティブなアプローチを提案する。
RGBイメージとアノテーションの両方を活用するディープニューラルネットワークに基づいている。
クリックごとに約5000ピクセルが修正されます。
- 参考スコア(独自算出の注目度): 26.087244189340858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an interactive approach for multi-class segmentation of
aerial images. Precisely, it is based on a deep neural network which exploits
both RGB images and annotations. Starting from an initial output based on the
image only, our network then interactively refines this segmentation map using
a concatenation of the image and user annotations. Importantly, user
annotations modify the inputs of the network - not its weights - enabling a
fast and smooth process. Through experiments on two public aerial datasets, we
show that user annotations are extremely rewarding: each click corrects roughly
5000 pixels. We analyze the impact of different aspects of our framework such
as the representation of the annotations, the volume of training data or the
network architecture. Code is available at https://github.com/delair-ai/DISIR.
- Abstract(参考訳): 本稿では,空中画像のマルチクラスセグメンテーションのためのインタラクティブなアプローチを提案する。
正確には、RGBイメージとアノテーションの両方を活用するディープニューラルネットワークに基づいている。
画像のみに基づく最初の出力から、ネットワークは画像とユーザアノテーションの結合を使ってインタラクティブにこのセグメンテーションマップを洗練します。
重要なのは、ユーザアノテーションがネットワークの入力(重みではなく)を変更し、高速でスムーズなプロセスを可能にすることです。
2つのパブリックな航空データセットの実験を通して、ユーザアノテーションは極めて報奨的であることを示しています。
アノテーションの表現、トレーニングデータのボリューム、ネットワークアーキテクチャなど、フレームワークのさまざまな側面の影響を分析します。
コードはhttps://github.com/delair-ai/DISIRで入手できる。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - FuseNet: Self-Supervised Dual-Path Network for Medical Image
Segmentation [3.485615723221064]
FuseNetは、自己教師型セマンティックセグメンテーションのためのデュアルストリームフレームワークである。
クロスモーダル融合技術は、テキストデータを拡張画像に置き換えることで、CLIPの原理を拡張している。
皮膚病変と肺分画データセットの実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-22T00:03:16Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Vessel-CAPTCHA: an efficient learning framework for vessel annotation
and segmentation [4.234945298751737]
3次元脳血管画像分割のためのディープラーニング技術の使用は、他の臓器や組織のセグメンテーションほど広くは普及していない。
アノテーション効率のよい深層学習容器セグメンテーションフレームワークを提案する。
このフレームワークは最先端の精度を実現し、学習ベースのセグメンテーションメソッドに関して最大80%のアノテーション時間を短縮します。
論文 参考訳(メタデータ) (2021-01-22T20:29:23Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Rethinking Interactive Image Segmentation: Feature Space Annotation [68.8204255655161]
本稿では,特徴空間投影による複数画像からの対話的・同時セグメントアノテーションを提案する。
本手法は,前景セグメンテーションデータセットにおける最先端手法の精度を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-01-12T10:13:35Z) - Few-Shot Semantic Segmentation Augmented with Image-Level Weak
Annotations [23.02986307143718]
ショットセマンティックセグメンテーションの最近の進歩は、わずか数ピクセルレベルの注釈付き例によってこの問題に対処している。
私たちのキーとなるアイデアは、イメージレベルのラベル付きデータから知識を融合させることで、クラスのより優れたプロトタイプ表現を学ぶことです。
画像レベルのアノテーションを統合することで,距離空間におけるクラスプロトタイプ表現を学習するための新しいフレームワークPAIAを提案する。
論文 参考訳(メタデータ) (2020-07-03T04:58:20Z) - Focus Longer to See Better:Recursively Refined Attention for
Fine-Grained Image Classification [148.4492675737644]
Deep Neural Networkは、粗い粒度の画像分類タスクにおいて大きな進歩を見せている。
本稿では,これらの限界差に着目して,より代表的な特徴を抽出する。
我々のネットワークは、画像の一部に繰り返し焦点を合わせ、クラス間の小さな識別的部分を見つける。
論文 参考訳(メタデータ) (2020-05-22T03:14:18Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。