論文の概要: Semantic Segmentation on Multiple Visual Domains
- arxiv url: http://arxiv.org/abs/2107.04326v1
- Date: Fri, 9 Jul 2021 09:34:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:55:41.814132
- Title: Semantic Segmentation on Multiple Visual Domains
- Title(参考訳): 複数の視覚領域のセマンティックセグメンテーション
- Authors: Floris Naber
- Abstract要約: 複数の既存ドメインでのトレーニングモデルは、出力ラベル空間を増大させることが望まれる。
本稿では,データセットのすべてのクラスにまたがるラベル空間を作成することで,都市景観,SUIM,SUN RGB-Dのデータセットに対して,この手法を提案する。
その結果、ハードウェアの性能が等しければ、マルチドメインモデルの精度は、全てのベースラインモデルよりも高い精度であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Semantic segmentation models only perform well on the domain they are trained
on and datasets for training are scarce and often have a small label-spaces,
because the pixel level annotations required are expensive to make. Thus
training models on multiple existing domains is desired to increase the output
label-space. Current research shows that there is potential to improve accuracy
across datasets by using multi-domain training, but this has not yet been
successfully extended to datasets of three different non-overlapping domains
without manual labelling. In this paper a method for this is proposed for the
datasets Cityscapes, SUIM and SUN RGB-D, by creating a label-space that spans
all classes of the datasets. Duplicate classes are merged and discrepant
granularity is solved by keeping classes separate. Results show that accuracy
of the multi-domain model has higher accuracy than all baseline models
together, if hardware performance is equalized, as resources are not limitless,
showing that models benefit from additional data even from domains that have
nothing in common.
- Abstract(参考訳): セマンティクスのセグメンテーションモデルは、トレーニング対象のドメインでのみうまく動作し、トレーニング用のデータセットは不足しており、必要なピクセルレベルのアノテーションはコストがかかるため、ラベルスペースが小さいことが多い。
したがって、複数の既存ドメインでのトレーニングモデルは出力ラベル空間を増大させることが望まれる。
現在の研究では、マルチドメイントレーニングを使用してデータセット間の精度を改善する可能性があるが、手動ラベリングなしで3つの異なる非重複ドメインのデータセットにはまだ拡張されていない。
本稿では,データセットの全クラスにまたがるラベル空間を作成することで,都市景観,SUIM,SUN RGB-Dのデータセットに対して,この手法を提案する。
重複クラスはマージされ、クラスを分離して離散的な粒度が解決される。
その結果、ハードウェアの性能が等しければ、マルチドメインモデルの精度は全てのベースラインモデルよりも高いことが示され、リソースに制限がないため、モデルは共通でないドメインからでも追加データから恩恵を受けることが示された。
関連論文リスト
- How to Encode Domain Information in Relation Classification [28.006694890849374]
現在の言語モデルは、高いパフォーマンスを得るために多くのトレーニングデータが必要です。
リレーショナル分類(RC)では、多くのデータセットがドメイン固有である。
本稿では,RCのためのマルチドメイン学習環境について検討し,ドメイン情報を符号化することで性能向上を図る。
論文 参考訳(メタデータ) (2024-04-21T20:16:35Z) - HGFormer: Hierarchical Grouping Transformer for Domain Generalized
Semantic Segmentation [113.6560373226501]
本研究は領域一般化設定の下で意味的セグメンテーションを研究する。
本稿では,階層型グループ化変換器(HGFormer)を提案する。
実験により、HGFormerはピクセルごとの分類法やフラットグルーピング変換器よりも、より堅牢なセマンティックセグメンテーション結果が得られることが示された。
論文 参考訳(メタデータ) (2023-05-22T13:33:41Z) - Label Name is Mantra: Unifying Point Cloud Segmentation across
Heterogeneous Datasets [17.503843467554592]
本稿では,異なるラベル集合を持つ異種データセットからの学習を支援する原理的アプローチを提案する。
我々の考えは、学習済みの言語モデルを用いて、ラベル名を用いて離散ラベルを連続的な潜在空間に埋め込むことである。
私たちのモデルは最先端の技術を大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-03-19T06:14:22Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z) - LiDARNet: A Boundary-Aware Domain Adaptation Model for Point Cloud
Semantic Segmentation [18.211513930388417]
我々は、LiDARスキャンフルシーンセマンティックセマンティックセグメンテーション(LiDARNet)のための境界対応ドメイン適応モデルを提案する。
我々のモデルは、ドメインプライベート機能とドメイン共有機能の両方を2ブランチ構造で抽出することができる。
このアプローチを用いることで、両方のドメインで動作する単一のプロジェクションベースのLiDARのフルシーンセマンティックセマンティックセマンティクスモデルが得られる。
論文 参考訳(メタデータ) (2020-03-02T20:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。