論文の概要: ObjectAug: Object-level Data Augmentation for Semantic Image
Segmentation
- arxiv url: http://arxiv.org/abs/2102.00221v1
- Date: Sat, 30 Jan 2021 12:46:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:36:51.322475
- Title: ObjectAug: Object-level Data Augmentation for Semantic Image
Segmentation
- Title(参考訳): ObjectAug:セマンティックイメージセグメンテーションのためのオブジェクトレベルのデータ拡張
- Authors: Jiawei Zhang, Yanchun Zhang, Xiaowei Xu
- Abstract要約: セマンティックイメージセグメンテーションは、正確な境界を持つオブジェクトラベルを取得することを目的としている。
現在の戦略はイメージレベルで動作し、オブジェクトと背景が結合される。
我々はObjectAugを提案し、セマンティックイメージセグメンテーションのためのオブジェクトレベルの拡張を行う。
- 参考スコア(独自算出の注目度): 22.91204798022379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic image segmentation aims to obtain object labels with precise
boundaries, which usually suffers from overfitting. Recently, various data
augmentation strategies like regional dropout and mix strategies have been
proposed to address the problem. These strategies have proved to be effective
for guiding the model to attend on less discriminative parts. However, current
strategies operate at the image level, and objects and the background are
coupled. Thus, the boundaries are not well augmented due to the fixed semantic
scenario. In this paper, we propose ObjectAug to perform object-level
augmentation for semantic image segmentation. ObjectAug first decouples the
image into individual objects and the background using the semantic labels.
Next, each object is augmented individually with commonly used augmentation
methods (e.g., scaling, shifting, and rotation). Then, the black area brought
by object augmentation is further restored using image inpainting. Finally, the
augmented objects and background are assembled as an augmented image. In this
way, the boundaries can be fully explored in the various semantic scenarios. In
addition, ObjectAug can support category-aware augmentation that gives various
possibilities to objects in each category, and can be easily combined with
existing image-level augmentation methods to further boost performance.
Comprehensive experiments are conducted on both natural image and medical image
datasets. Experiment results demonstrate that our ObjectAug can evidently
improve segmentation performance.
- Abstract(参考訳): セマンティックイメージセグメンテーションは、通常オーバーフィットに苦しむ正確な境界を持つオブジェクトラベルを得ることを目指しています。
近年,地域的ドロップアウトやミックス戦略といった様々なデータ拡張戦略が提案されている。
これらの戦略は、モデルを差別的でない部分に参加するよう導くのに有効であることが証明されている。
しかし、現在の戦略は画像レベルで動作し、オブジェクトと背景が結合されている。
したがって、境界は固定されたセマンティックシナリオのために十分に拡張されない。
本稿では,セマンティック画像のセグメンテーションのためのオブジェクトレベルの拡張を行うobjectaugを提案する。
ObjectAugは、まずイメージを個々のオブジェクトと背景にセマンティックラベルを使って分離する。
次に、各オブジェクトは、一般的に使用される拡張メソッド(スケーリング、シフト、ローテーションなど)で個別に拡張される。
そして、物体増強によってもたらされる黒領域をさらに画像インペインティングを用いて復元する。
最後に、拡張オブジェクトと背景は、拡張イメージとして組み立てられる。
このようにして、境界は様々なセマンティックなシナリオで完全に探索できる。
さらに、objectaugは、各カテゴリのオブジェクトに様々な可能性を与えるカテゴリ認識拡張をサポートし、既存の画像レベルの拡張メソッドと簡単に組み合わせることで、パフォーマンスをさらに高めることができる。
自然画像と医用画像データセットの両方で包括的な実験を行う。
実験の結果,objectaugはセグメント化性能を明らかに向上できることがわかった。
関連論文リスト
- ResVG: Enhancing Relation and Semantic Understanding in Multiple Instances for Visual Grounding [42.10086029931937]
ビジュアルグラウンドティングは、自然言語クエリに基づいて画像に参照されるオブジェクトをローカライズすることを目的としている。
既存の手法では、画像に複数の障害がある場合、大幅な性能低下を示す。
本稿では,Relation and Semantic-sensitive Visual Grounding (ResVG)モデルを提案する。
論文 参考訳(メタデータ) (2024-08-29T07:32:01Z) - High-Quality Entity Segmentation [110.55724145851725]
CropFormerは高解像度画像におけるインスタンスレベルのセグメンテーションの難易度に対処するために設計されている。
よりきめ細かい画像とフルイメージを提供する高解像度の画像作物を融合することで、マスク予測を改善する。
CropFormerでは、難易度の高いエンティティセグメンテーションタスクで1.9ドルという大きなAP利益を達成しています。
論文 参考訳(メタデータ) (2022-11-10T18:58:22Z) - SemAug: Semantically Meaningful Image Augmentations for Object Detection
Through Language Grounding [5.715548995729382]
本研究では,シーンに文脈的に意味のある知識を注入することで,画像強調のための効果的な手法を提案する。
本手法は,意味的に適切な新しいオブジェクトを抽出することから,言語接地によるオブジェクト検出のための意味的意味的画像強調法であるSemAugを出発点とする。
論文 参考訳(メタデータ) (2022-08-15T19:00:56Z) - Panoptic-based Object Style-Align for Image-to-Image Translation [2.226472061870956]
本稿では,画像から画像への変換を行うために,パノプティクスに基づくオブジェクトスタイル適応生成ネットワーク(POSA-GAN)を提案する。
提案手法は,異なる競合手法と体系的に比較し,画像の画質とオブジェクト認識性能に大きな改善を加えた。
論文 参考訳(メタデータ) (2021-12-03T14:28:11Z) - SemIE: Semantically-aware Image Extrapolation [1.5588799679661636]
画像外挿を行うための意味的に認識可能な新しいパラダイムを提案する。
提案手法は (i) 既に存在するオブジェクトを拡張することに焦点を当て、 (ii) コンテキストに基づいて拡張された領域に新しいオブジェクトを追加することに焦点を当てている。
我々はCityscapesとADE20K-bedroomデータセットの実験を行い、FIDとオブジェクト共起統計における類似性の観点から、本手法がすべてのベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2021-08-31T09:31:27Z) - Open-World Entity Segmentation [70.41548013910402]
我々は、意味圏ラベルを考慮せずに、画像内のすべての視覚的エンティティをセグメント化することを目的として、Entity(ES)と呼ばれる新しいイメージセグメンテーションタスクを導入する。
意味的に意味のある全てのセグメントは、等しく分類なしのエンティティとして扱われる。
1) 複数のデータセットをマージしてラベルの衝突を解決することなく大規模なトレーニングセットを形成すること、2) 1つのデータセットでトレーニングされたモデルが、目に見えないドメインを持つ他のデータセットに対して、例外的にうまく一般化することができること、である。
論文 参考訳(メタデータ) (2021-07-29T17:59:05Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - Improving Semantic Segmentation via Decoupled Body and Edge Supervision [89.57847958016981]
既存のセグメンテーションアプローチは、グローバルコンテキストをモデル化することでオブジェクトの内部の一貫性を改善すること、あるいはマルチスケールの特徴融合によって境界に沿ったオブジェクトの詳細を洗練することを目的としている。
本稿では,セマンティックセグメンテーションのための新しいパラダイムを提案する。
我々の洞察は、セマンティックセグメンテーションの魅力ある性能には、画像の高頻度と低頻度に対応するオブジェクトのテキストボディとテキストエッジを具体的にモデル化する必要があるということである。
さまざまなベースラインやバックボーンネットワークを備えた提案したフレームワークが,オブジェクト内部の一貫性とオブジェクト境界を向上させることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:11:22Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。