論文の概要: SegRCDB: Semantic Segmentation via Formula-Driven Supervised Learning
- arxiv url: http://arxiv.org/abs/2309.17083v1
- Date: Fri, 29 Sep 2023 09:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:44:22.780917
- Title: SegRCDB: Semantic Segmentation via Formula-Driven Supervised Learning
- Title(参考訳): SegRCDB: フォーミュラ駆動監視学習によるセマンティックセグメンテーション
- Authors: Risa Shinoda, Ryo Hayamizu, Kodai Nakashima, Nakamasa Inoue, Rio
Yokota, Hirokatsu Kataoka
- Abstract要約: セマンティックセグメンテーションに公式駆動型教師あり学習を適用したRadar Contour DataBase(SegRCDB)を提案する。
SegRCDBは、実際のイメージや手動のセマンティックラベルなしでセマンティックセグメンテーションの事前トレーニングを可能にする。
データセットは、研究と商用使用を可能にするライセンスの下でリリースされる。
- 参考スコア(独自算出の注目度): 19.99841384201906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-training is a strong strategy for enhancing visual models to efficiently
train them with a limited number of labeled images. In semantic segmentation,
creating annotation masks requires an intensive amount of labor and time, and
therefore, a large-scale pre-training dataset with semantic labels is quite
difficult to construct. Moreover, what matters in semantic segmentation
pre-training has not been fully investigated. In this paper, we propose the
Segmentation Radial Contour DataBase (SegRCDB), which for the first time
applies formula-driven supervised learning for semantic segmentation. SegRCDB
enables pre-training for semantic segmentation without real images or any
manual semantic labels. SegRCDB is based on insights about what is important in
pre-training for semantic segmentation and allows efficient pre-training.
Pre-training with SegRCDB achieved higher mIoU than the pre-training with
COCO-Stuff for fine-tuning on ADE-20k and Cityscapes with the same number of
training images. SegRCDB has a high potential to contribute to semantic
segmentation pre-training and investigation by enabling the creation of large
datasets without manual annotation. The SegRCDB dataset will be released under
a license that allows research and commercial use. Code is available at:
https://github.com/dahlian00/SegRCDB
- Abstract(参考訳): 事前学習は、限られたラベル付き画像で視覚モデルを効率的に訓練するための強力な戦略である。
セマンティックセグメンテーションでは,アノテーションマスクの作成には多大な労力と時間を要するため,意味ラベル付き大規模事前学習データセットの構築は非常に困難である。
また,セマンティクスセグメンテーションの事前学習における重要事項は十分に検討されていない。
本稿では,segrcdb (segrcdb) について,意味セグメンテーションのための公式駆動教師付き学習を初めて適用した。
SegRCDBは、実際のイメージや手動のセマンティックラベルなしでセマンティックセグメンテーションの事前トレーニングを可能にする。
SegRCDBはセマンティックセグメンテーションの事前トレーニングで何が重要かという洞察に基づいており、効率的な事前トレーニングを可能にする。
SegRCDBによる事前トレーニングは、ADE-20kとCityscapesで同じ数のトレーニング画像で微調整を行うCOCO-Stuffでの事前トレーニングよりも、mIoUが向上した。
SegRCDBは、手動のアノテーションなしで大規模なデータセットの作成を可能にすることで、セマンティックセグメンテーションの事前トレーニングと調査に貢献する可能性が高い。
SegRCDBデータセットは、研究と商用使用を可能にするライセンス下でリリースされる予定である。
コードは、https://github.com/dahlian00/SegRCDBで入手できる。
関連論文リスト
- SAMBA: A Trainable Segmentation Web-App with Smart Labelling [0.0]
SAMBAは、高速で高品質なラベル提案にMetaのSegment Anything Model(SAM)を使用するトレーニング可能なセグメンテーションツールである。
セグメンテーションバックエンドはクラウドで動作するため、ユーザは強力なハードウェアを必要としない。
論文 参考訳(メタデータ) (2023-12-07T10:31:05Z) - On-Device Unsupervised Image Segmentation [5.9990534851802915]
私たちはHDCベースの教師なしセグメンテーションフレームワーク「SegHDC」を構築します。
標準セグメンテーションデータセットでは、SegHDCはIoU(Intersection over Union)スコアを28.0%改善することができる。
SegHDCは3分以内にセグメンテーション結果を得ることができ、0.9587 IoUスコアを達成できる。
論文 参考訳(メタデータ) (2023-02-24T00:51:17Z) - SegCLIP: Patch Aggregation with Learnable Centers for Open-Vocabulary
Semantic Segmentation [26.079055078561986]
オープン語彙セグメンテーションのためのCLIPベースのSegCLIPモデルを提案する。
主なアイデアは、テキストイメージペアのトレーニングを通じて、学習可能な中心をセマンティック領域に集めることである。
実験結果から,本モデルでは高いセグメンテーション精度が得られた。
論文 参考訳(メタデータ) (2022-11-27T12:38:52Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Three Ways to Improve Semantic Segmentation with Self-Supervised Depth
Estimation [90.87105131054419]
ラベルなし画像列からの自己教師付き単眼深度推定により強化された半教師付きセマンティックセマンティックセマンティックセマンティクスのフレームワークを提案する。
提案されたモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2020-12-19T21:18:03Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。