論文の概要: SegRCDB: Semantic Segmentation via Formula-Driven Supervised Learning
- arxiv url: http://arxiv.org/abs/2309.17083v1
- Date: Fri, 29 Sep 2023 09:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:44:22.780917
- Title: SegRCDB: Semantic Segmentation via Formula-Driven Supervised Learning
- Title(参考訳): SegRCDB: フォーミュラ駆動監視学習によるセマンティックセグメンテーション
- Authors: Risa Shinoda, Ryo Hayamizu, Kodai Nakashima, Nakamasa Inoue, Rio
Yokota, Hirokatsu Kataoka
- Abstract要約: セマンティックセグメンテーションに公式駆動型教師あり学習を適用したRadar Contour DataBase(SegRCDB)を提案する。
SegRCDBは、実際のイメージや手動のセマンティックラベルなしでセマンティックセグメンテーションの事前トレーニングを可能にする。
データセットは、研究と商用使用を可能にするライセンスの下でリリースされる。
- 参考スコア(独自算出の注目度): 19.99841384201906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-training is a strong strategy for enhancing visual models to efficiently
train them with a limited number of labeled images. In semantic segmentation,
creating annotation masks requires an intensive amount of labor and time, and
therefore, a large-scale pre-training dataset with semantic labels is quite
difficult to construct. Moreover, what matters in semantic segmentation
pre-training has not been fully investigated. In this paper, we propose the
Segmentation Radial Contour DataBase (SegRCDB), which for the first time
applies formula-driven supervised learning for semantic segmentation. SegRCDB
enables pre-training for semantic segmentation without real images or any
manual semantic labels. SegRCDB is based on insights about what is important in
pre-training for semantic segmentation and allows efficient pre-training.
Pre-training with SegRCDB achieved higher mIoU than the pre-training with
COCO-Stuff for fine-tuning on ADE-20k and Cityscapes with the same number of
training images. SegRCDB has a high potential to contribute to semantic
segmentation pre-training and investigation by enabling the creation of large
datasets without manual annotation. The SegRCDB dataset will be released under
a license that allows research and commercial use. Code is available at:
https://github.com/dahlian00/SegRCDB
- Abstract(参考訳): 事前学習は、限られたラベル付き画像で視覚モデルを効率的に訓練するための強力な戦略である。
セマンティックセグメンテーションでは,アノテーションマスクの作成には多大な労力と時間を要するため,意味ラベル付き大規模事前学習データセットの構築は非常に困難である。
また,セマンティクスセグメンテーションの事前学習における重要事項は十分に検討されていない。
本稿では,segrcdb (segrcdb) について,意味セグメンテーションのための公式駆動教師付き学習を初めて適用した。
SegRCDBは、実際のイメージや手動のセマンティックラベルなしでセマンティックセグメンテーションの事前トレーニングを可能にする。
SegRCDBはセマンティックセグメンテーションの事前トレーニングで何が重要かという洞察に基づいており、効率的な事前トレーニングを可能にする。
SegRCDBによる事前トレーニングは、ADE-20kとCityscapesで同じ数のトレーニング画像で微調整を行うCOCO-Stuffでの事前トレーニングよりも、mIoUが向上した。
SegRCDBは、手動のアノテーションなしで大規模なデータセットの作成を可能にすることで、セマンティックセグメンテーションの事前トレーニングと調査に貢献する可能性が高い。
SegRCDBデータセットは、研究と商用使用を可能にするライセンス下でリリースされる予定である。
コードは、https://github.com/dahlian00/SegRCDBで入手できる。
関連論文リスト
- Scribbles for All: Benchmarking Scribble Supervised Segmentation Across Datasets [51.74296438621836]
Scribbles for Allは、スクリブルラベルに基づいて訓練されたセマンティックセグメンテーションのためのラベルおよびトレーニングデータ生成アルゴリズムである。
弱い監督の源泉としてのスクリブルの主な制限は、スクリブルセグメンテーションのための挑戦的なデータセットの欠如である。
Scribbles for Allは、いくつかの人気のあるセグメンテーションデータセットのスクリブルラベルを提供し、密集したアノテーションを持つデータセットのスクリブルラベルを自動的に生成するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-08-22T15:29:08Z) - SAMBA: A Trainable Segmentation Web-App with Smart Labelling [0.0]
SAMBAは、高速で高品質なラベル提案にMetaのSegment Anything Model(SAM)を使用するトレーニング可能なセグメンテーションツールである。
セグメンテーションバックエンドはクラウドで動作するため、ユーザは強力なハードウェアを必要としない。
論文 参考訳(メタデータ) (2023-12-07T10:31:05Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - On-Device Unsupervised Image Segmentation [5.9990534851802915]
私たちはHDCベースの教師なしセグメンテーションフレームワーク「SegHDC」を構築します。
標準セグメンテーションデータセットでは、SegHDCはIoU(Intersection over Union)スコアを28.0%改善することができる。
SegHDCは3分以内にセグメンテーション結果を得ることができ、0.9587 IoUスコアを達成できる。
論文 参考訳(メタデータ) (2023-02-24T00:51:17Z) - SegCLIP: Patch Aggregation with Learnable Centers for Open-Vocabulary
Semantic Segmentation [26.079055078561986]
オープン語彙セグメンテーションのためのCLIPベースのSegCLIPモデルを提案する。
主なアイデアは、テキストイメージペアのトレーニングを通じて、学習可能な中心をセマンティック領域に集めることである。
実験結果から,本モデルでは高いセグメンテーション精度が得られた。
論文 参考訳(メタデータ) (2022-11-27T12:38:52Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Three Ways to Improve Semantic Segmentation with Self-Supervised Depth
Estimation [90.87105131054419]
ラベルなし画像列からの自己教師付き単眼深度推定により強化された半教師付きセマンティックセマンティックセマンティックセマンティクスのフレームワークを提案する。
提案されたモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2020-12-19T21:18:03Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。