論文の概要: SceneAdapt: Scene-based domain adaptation for semantic segmentation
using adversarial learning
- arxiv url: http://arxiv.org/abs/2006.10386v1
- Date: Thu, 18 Jun 2020 09:43:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 14:01:05.571886
- Title: SceneAdapt: Scene-based domain adaptation for semantic segmentation
using adversarial learning
- Title(参考訳): SceneAdapt: 逆学習を用いたセマンティックセグメンテーションのためのシーンベースドメイン適応
- Authors: Daniele Di Mauro, Antonino Furnari, Giuseppe Patan\`e, Sebastiano
Battiato, Giovanni Maria Farinella
- Abstract要約: SceneAdaptは、逆学習に基づくセマンティックセグメンテーションアルゴリズムのシーン適応手法である。
このトピックについての研究を促進するため、私たちはWebページにコードを公開しました。
- 参考スコア(独自算出の注目度): 24.37746089471516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation methods have achieved outstanding performance thanks to
deep learning. Nevertheless, when such algorithms are deployed to new contexts
not seen during training, it is necessary to collect and label scene-specific
data in order to adapt them to the new domain using fine-tuning. This process
is required whenever an already installed camera is moved or a new camera is
introduced in a camera network due to the different scene layouts induced by
the different viewpoints. To limit the amount of additional training data to be
collected, it would be ideal to train a semantic segmentation method using
labeled data already available and only unlabeled data coming from the new
camera. We formalize this problem as a domain adaptation task and introduce a
novel dataset of urban scenes with the related semantic labels. As a first
approach to address this challenging task, we propose SceneAdapt, a method for
scene adaptation of semantic segmentation algorithms based on adversarial
learning. Experiments and comparisons with state-of-the-art approaches to
domain adaptation highlight that promising performance can be achieved using
adversarial learning both when the two scenes have different but points of
view, and when they comprise images of completely different scenes. To
encourage research on this topic, we made our code available at our web page:
https://iplab.dmi.unict.it/ParkSmartSceneAdaptation/.
- Abstract(参考訳): セマンティックセグメンテーション法は深層学習により優れた性能を達成した。
それでも、トレーニング中に見えない新しいコンテキストにそのようなアルゴリズムをデプロイする場合は、微調整を使って新しいドメインに適応するために、シーン固有のデータを収集、ラベル付けする必要がある。
このプロセスは、既に設置されているカメラが移動されたり、異なる視点によって引き起こされる異なるシーンレイアウトのためにカメラネットワークに新しいカメラが導入されたりするたびに必要となる。
収集する追加のトレーニングデータの量を制限するため、既に利用可能なラベル付きデータと、新しいカメラから来るラベル付きデータのみを使用してセマンティックセグメンテーションをトレーニングすることが理想である。
ドメイン適応タスクとしてこの問題を形式化し、関連するセマンティックラベルを用いた都市景観の新たなデータセットを導入する。
この課題に対処するための第1のアプローチとして,逆学習に基づく意味セグメンテーションアルゴリズムのシーン適応手法である sceneadapt を提案する。
ドメイン適応に対する最先端のアプローチとの比較と実験は、2つのシーンが異なる視点を持つ場合と、全く異なるシーンのイメージを構成する場合の両方で、有望なパフォーマンスを達成することを強調している。
このトピックについての研究を促進するため、私たちはWebページにコードを公開しました。
関連論文リスト
- Multi-Modal Domain Adaptation Across Video Scenes for Temporal Video
Grounding [59.599378814835205]
時間的ビデオグラウンドリング(TVG)は、与えられた言語クエリに基づいて、特定のセグメントの時間的境界を未トリミングビデオにローカライズすることを目的としている。
そこで本研究では,対象データからの洞察を取り入れた新たなAMDA手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T07:49:27Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Shatter and Gather: Learning Referring Image Segmentation with Text
Supervision [52.46081425504072]
入力画像中の意味的エンティティを検出し,テキストクエリに関連するエンティティを組み合わせて参照者のマスクを予測するモデルを提案する。
提案手法は,イメージセグメンテーションを参照するための4つの公開ベンチマークで評価され,既存のタスクと最近の全てのベンチマークにおけるオープン語彙セグメンテーションモデルよりも明らかに優れていた。
論文 参考訳(メタデータ) (2023-08-29T15:39:15Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - CYBORGS: Contrastively Bootstrapping Object Representations by Grounding
in Segmentation [22.89327564484357]
本稿では,表現とセグメンテーションの協調学習を通じて,この目標を達成するフレームワークを提案する。
これら2つのコンポーネントを反復することにより、セグメンテーション情報のコントラスト更新を行い、プレトレーニングを通じてセグメンテーションを改善する。
論文 参考訳(メタデータ) (2022-03-17T14:20:05Z) - Learning To Segment Dominant Object Motion From Watching Videos [72.57852930273256]
我々は,有意な移動物体セグメンテーションのための単純なフレームワークを構想する。このフレームワークは,有意なデータを必要としないし,有意な前処理や事前学習された光フローマップに依存しない。
層状画像表現に着想を得て,アフィンパラメトリックの動きに応じて画素領域をグループ化する手法を提案する。
これにより、トレーニングと推論の両方の入力として、RGBイメージペアのみを使用して、支配的なフォアグラウンドオブジェクトのセグメンテーションを学習することができる。
論文 参考訳(メタデータ) (2021-11-28T14:51:00Z) - Unsupervised Domain Adaptation for Video Semantic Segmentation [91.30558794056054]
セマンティックセグメンテーションのための教師なしドメイン適応は、シミュレーションからリアルに知識を伝達できるため、大きな人気を集めている。
本研究では,ビデオセマンティック・アプローチのための教師なし領域適応という,このタスクの新たなビデオ拡張について述べる。
提案手法は,画像レベル (mIoU) と映像レベル (VPQ) の両方において,従来の画像ベースUDA手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-07-23T07:18:20Z) - Realizing Pixel-Level Semantic Learning in Complex Driving Scenes based
on Only One Annotated Pixel per Class [17.481116352112682]
本稿では,複雑な運転シーン下でのセマンティックセマンティックセマンティクスタスクを提案する。
3段階のプロセスは擬似ラベル生成のために構築され、各カテゴリに最適な特徴表現を徐々に実装する。
Cityscapesデータセットの実験は、提案手法が弱教師付きセマンティックセマンティックセマンティクスタスクを解決するための実現可能な方法であることを示した。
論文 参考訳(メタデータ) (2020-03-10T12:57:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。