論文の概要: Data-Efficient Instance Segmentation with a Single GPU
- arxiv url: http://arxiv.org/abs/2110.00242v1
- Date: Fri, 1 Oct 2021 07:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:36:01.524116
- Title: Data-Efficient Instance Segmentation with a Single GPU
- Title(参考訳): 単一GPUを用いたデータ効率の良いインスタンス分割
- Authors: Pengyu Chen, Wanhua Li, Jiwen Lu
- Abstract要約: 我々は2021年のVIPriors Instance Challengeで使用したデータ効率のセグメンテーション手法を紹介した。
私たちのソリューションは、強力なツールボックスであるmmdetectionをベースにした、Swin Transformerの修正版です。
本手法は,全競技者の2位である0.592のAP@0.50:0.95(medium)を達成した。
- 参考スコア(独自算出の注目度): 88.31338435907304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Not everyone is wealthy enough to have hundreds of GPUs or TPUs. Therefore,
we've got to find a way out. In this paper, we introduce a data-efficient
instance segmentation method we used in the 2021 VIPriors Instance Segmentation
Challenge. Our solution is a modified version of Swin Transformer, based on the
mmdetection which is a powerful toolbox. To solve the problem of lack of data,
we utilize data augmentation including random flip and multiscale training to
train our model. During inference, multiscale fusion is used to boost the
performance. We only use a single GPU during the whole training and testing
stages. In the end, our team named THU_IVG_2018 achieved the result of 0.366
for AP@0.50:0.95 on the test set, which is competitive with other top-ranking
methods while only one GPU is used. Besides, our method achieved the
AP@0.50:0.95 (medium) of 0.592, which ranks second among all contestants
- Abstract(参考訳): 誰もが数百のGPUやTPUを持つほど裕福ではない。
したがって、私たちは抜け道を見つけなければならない。
本稿では,2021年のVIPriors Instance Segmentation Challengeで使用したデータ効率の高いインスタンスセグメンテーション手法を提案する。
私たちのソリューションは、強力なツールボックスであるmm検出に基づいて、swain transformerの修正版です。
データ不足の問題を解決するため、ランダムなフリップやマルチスケールトレーニングを含むデータ拡張を用いてモデルを訓練する。
推論中、マルチスケールフュージョンは性能を高めるために使用される。
トレーニングとテストのステージ全体において、gpuは1つだけです。
最終的に、テストセット上のap@0.50:0.95に対する0.366の結果をthu_ivg_2018というチームが達成しました。
また,本手法は,全出場者中2位である0.592のap@0.50:0.95 (medium) を達成した。
関連論文リスト
- The Second-place Solution for CVPR VISION 23 Challenge Track 1 -- Data
Effificient Defect Detection [3.4853769431047907]
データ有効欠陥検出のためのビジョンチャレンジトラック1は、競合相手がデータ不足の環境で14の産業検査データセットを例示する必要がある。
この課題に対して、Aoi-overfiting-Teamチームの技術詳細を紹介します。
論文 参考訳(メタデータ) (2023-06-25T03:37:02Z) - DisCo-CLIP: A Distributed Contrastive Loss for Memory Efficient CLIP
Training [13.953918004371493]
DisCo-CLIPはメモリ効率のよいCLIPトレーニングアプローチである。
DisCo-CLIPは、バッチサイズ32Kまたは196KのViT-B/32モデルのコントラストトレーニングを可能にする。
論文 参考訳(メタデータ) (2023-04-17T17:58:21Z) - Cramming: Training a Language Model on a Single GPU in One Day [64.18297923419627]
言語モデリングの最近のトレンドは、スケーリングによるパフォーマンス向上に焦点を当てている。
我々は,1つのコンシューマGPU上で1日間,マスク付き言語モデルを用いてゼロから完全に訓練されたトランスフォーマーベース言語モデルで達成可能なダウンストリーム性能について検討した。
この制約された設定であっても、大規模設定で観測されるスケーリングの法則に密接に従う性能を示す。
論文 参考訳(メタデータ) (2022-12-28T18:59:28Z) - Learning Tracking Representations via Dual-Branch Fully Transformer
Networks [82.21771581817937]
追従のためのトランスフォーマーのみをベースとした,シームズ型デュアルブランチネットワークを提案する。
注目ウィンドウ内の他のパッチとのマッチング結果に基づいて,各パッチの特徴ベクトルを抽出する。
この手法は、最高の性能の方法として、より良い結果または同等の結果を得る。
論文 参考訳(メタデータ) (2021-12-05T13:44:33Z) - Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers [65.60007071024629]
本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-10-13T20:58:15Z) - Instance Segmentation Challenge Track Technical Report, VIPriors
Workshop at ICCV 2021: Task-Specific Copy-Paste Data Augmentation Method for
Instance Segmentation [0.0]
Copy-Pasteは、インスタンスセグメンテーションのための非常に効果的なデータ拡張であることが証明されている。
我々はRandAugmentやGridMaskといった追加のデータ拡張手法を適用した。
トレーニングデータに検証セットを追加することで、テストセットで0.477 AP@0.50:0.95に達した。
論文 参考訳(メタデータ) (2021-10-01T15:03:53Z) - Efficient Large-Scale Language Model Training on GPU Clusters [19.00915720435389]
大規模な言語モデルは、様々なタスクに最先端の精度をもたらす。
メモリ容量は限られており、大きなモデルを単一のGPUに収めることは不可能である。
これらのモデルのトレーニングに必要な計算操作の数は、非現実的な長いトレーニング時間をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-04-09T16:43:11Z) - Scaling Semantic Segmentation Beyond 1K Classes on a Single GPU [87.48110331544885]
既存のセマンティックセグメンテーションモデルのトレーニングとスケールアップのための新しいトレーニング手法を提案する。
我々は、LVISとCOCOアノテーションからブートストラップした1284クラスのデータセットに対するアプローチの明確な利点を示し、DeeplabV3+モデルの3倍のmIoUを実現した。
論文 参考訳(メタデータ) (2020-12-14T13:12:38Z) - Human-Centered Unsupervised Segmentation Fusion [0.0]
K-Modesクラスタリングに基づく新しいセグメンテーション融合モデルを提案する。
人的真実セグメントを用いた公開データセットから得られた結果は、我々のモデルが人間のセグメンテーションの最先端よりも優れていることを明らかに示している。
論文 参考訳(メタデータ) (2020-07-22T12:18:31Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。