論文の概要: A novel method for data augmentation: Nine Dot Moving Least Square
(ND-MLS)
- arxiv url: http://arxiv.org/abs/2208.11532v1
- Date: Wed, 24 Aug 2022 13:26:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:00:27.156933
- Title: A novel method for data augmentation: Nine Dot Moving Least Square
(ND-MLS)
- Title(参考訳): データ拡張のための新しい方法:ND-MLS(Nin Dot moving Least Square)
- Authors: Wen Yang, Rui Wang, Yanchao Zhang
- Abstract要約: 我々は9ドットMLS(ND-MLS)と呼ばれるデータ拡張のための新しいアプローチを提案する。
画像はND-MLSによって計算される制御点に基づいて変形される。
この方法では,既存のデータセット1つに対して,2000以上の画像を短時間で生成することができる。
- 参考スコア(独自算出の注目度): 19.902634947831125
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Data augmentation greatly increases the amount of data obtained based on
labeled data to save on expenses and labor for data collection and labeling. We
present a new approach for data augmentation called nine-dot MLS (ND-MLS). This
approach is proposed based on the idea of image defor-mation. Images are
deformed based on control points, which are calculated by ND-MLS. The method
can generate over 2000 images for one exist-ing dataset in a short time. To
verify this data augmentation method, extensive tests were performed covering 3
main tasks of computer vision, namely, classification, detection and
segmentation. The results show that 1) in classification, 10 images per
category were used for training, and VGGNet can obtain 92% top-1 acc on the
MNIST dataset of handwritten digits by ND-MLS. In the Omniglot dataset, the
few-shot accuracy usu-ally decreases with the increase in character categories.
However, the ND-MLS method has stable performance and obtains 96.5 top-1 acc in
Res-Net on 100 different handwritten character classification tasks; 2) in
segmentation, under the premise of only ten original images, DeepLab obtains
93.5%, 85%, and 73.3% m_IOU(10) on the bottle, horse, and grass test datasets,
respectively, while the cat test dataset obtains 86.7% m_IOU(10) with the
SegNet model; 3) with only 10 original images from each category in object
detection, YOLO v4 obtains 100% and 97.2% bottle and horse detection,
respectively, while the cat dataset obtains 93.6% with YOLO v3. In summary,
ND-MLS can perform well on classification, object detec-tion, and semantic
segmentation tasks by using only a few data.
- Abstract(参考訳): データ拡張は、データ収集とラベル付けの費用と労力を節約するためにラベル付きデータに基づいて得られるデータ量を大幅に増加させる。
我々は,9ドットMLS(ND-MLS)と呼ばれる新しいデータ拡張手法を提案する。
この手法は画像デフォルメーションの考え方に基づいて提案される。
画像はND-MLSによって計算される制御点に基づいて変形される。
この方法では,既存のデータセット1つに対して,2000以上の画像を短時間で生成することができる。
このデータ拡張手法を検証するために,コンピュータビジョンの3つの主なタスク,すなわち分類,検出,分割に関する広範なテストを行った。
その結果は
1) 分類では,ND-MLS による手書き数字の MNIST データセット上で VGGNet が 92% のトップ-1 を取得できる。
オムニグロットデータセットでは、文字カテゴリの増加に伴い、少数ショット精度のusuが低下する。
しかし、ND-MLS法は安定しており、Res-Netの96.5 Top-1 ccを100種類の手書き文字分類タスクで取得する。
2)セグメンテーションにおいて、deeplabは、ボトル、馬、草の試験データセットでそれぞれ93.5%、85%、73.3%m_iou(10)を取得し、猫テストデータセットは、セグネットモデルで86.7%m_iou(10)を得る。3) オブジェクト検出において、各カテゴリから10個のオリジナル画像しか得られないが、yolo v4は、それぞれ100%と97.2%のボトルと馬の検出を取得し、一方、猫データセットは、yolo v3で93.6%を得る。
要約すると、ND-MLSは、少数のデータのみを使用することで、分類、オブジェクトデテックオプション、セマンティックセグメンテーションタスクでうまく機能する。
関連論文リスト
- Development of Image Collection Method Using YOLO and Siamese Network [2.0616129322243104]
著者らは、意図しないデータがユーザとともに収集されるのに、クローリング方法に問題があることに気付いた。
彼らは、オブジェクト認識モデル YOLOv10 を用いてフィルタリングできることを発見した。
著者らは、Siameseネットワークは少ないリソースで高いパフォーマンスを達成することができることも見出した。
論文 参考訳(メタデータ) (2024-10-16T13:36:47Z) - Collaborative Learning for Annotation-Efficient Volumetric MR Image
Segmentation [5.462792626065119]
本研究の目的は,各3次元訓練MR画像に対して,1つの2次元スライスラベルのみをスパースアノテーションとして探索する深層学習手法を構築することである。
半教師型・自己教師型学習スキームの強みを統合した協調学習法を開発した。
提案手法はセグメンテーション精度を大幅に向上させ, 前立腺セグメンテーションでは平均B-IoUを10.0%以上増加させた。
論文 参考訳(メタデータ) (2023-12-18T07:02:37Z) - Generalized Large-Scale Data Condensation via Various Backbone and Statistical Matching [24.45182507244476]
Generalized Various Backbone and Statistical Matching (G-VBSM) は、小規模なデータセットと大規模データセットの両方で高い性能を得るアルゴリズムである。
G-VBSMは、CIFAR-100で38.7%、128インチのConvNetで47.6%、ResNet18でTiny-ImageNetで47.6%、ResNet18で224x224 ImageNet-1kで31.4%のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-11-29T06:25:59Z) - T-MARS: Improving Visual Representations by Circumventing Text Feature Learning [99.3682210827572]
LAIONの画像の40%近くは、字幕と重なるテキストを含んでいるという、我々の観察に動機づけられた新しいデータフィルタリング手法を提案する。
我々のシンプルでスケーラブルなアプローチであるT-MARSは、テキストが残りの視覚的特徴を支配するペアのみをフィルタリングします。
論文 参考訳(メタデータ) (2023-07-06T16:59:52Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - Bugs in the Data: How ImageNet Misrepresents Biodiversity [98.98950914663813]
ImageNet-1k検証セットで野生動物を表す269のクラスから13450の画像を解析した。
多くのクラスが未定義あるいは重複しており、画像の12%が誤ってラベル付けされていることがわかった。
また,ImageNet-1kに含まれる野生生物関連ラベルと画像の両方が,地理的,文化的に有意な偏見を呈していることがわかった。
論文 参考訳(メタデータ) (2022-08-24T17:55:48Z) - TNCR: Table Net Detection and Classification Dataset [62.997667081978825]
TNCRデータセットは、スキャンされた文書画像のテーブル検出と5つのクラスに分類される。
我々は、テーブル検出のための最先端のディープラーニングベースの手法を実装し、いくつかの強力なベースラインを構築した。
我々は、テーブルの検出、分類、構造認識に対するより深い学習アプローチを促進するために、TNCRをオープンソースにしました。
論文 参考訳(メタデータ) (2021-06-19T10:48:58Z) - Few-Data Guided Learning Upon End-to-End Point Cloud Network for 3D Face
Recognition [10.880181451789262]
ポイントクラウドベースの3D顔認識のためのエンドツーエンドのディープラーニングネットワークであるSur3dNet-Faceを提案する。
Rank-1 Recognition Rate (RR1) は、FRGC v2.0データセットで98.85%、Bosphorusデータセットで99.33%である。
論文 参考訳(メタデータ) (2021-03-31T09:26:14Z) - A New Mask R-CNN Based Method for Improved Landslide Detection [54.7905160534631]
本稿では,Mask R-CNN機能を利用した地すべり検出手法を提案する。
地すべり及び非地すべり画像を含む160個の要素からなるデータセットを作成する。
提案アルゴリズムは丘陵地帯の土地利用計画立案者や政策立案者にとって潜在的に有用である。
論文 参考訳(メタデータ) (2020-10-04T07:46:37Z) - Neural Data Server: A Large-Scale Search Engine for Transfer Learning
Data [78.74367441804183]
我々は,ターゲットドメインに最も有用な転送学習データを見つけるための大規模検索エンジンであるNeural Data Server (NDS)を紹介した。
NDSは、いくつかの人気のある画像データセットをインデックスするデータサーバで構成され、クライアントにデータを推奨することを目的としている。
我々は,NDSが様々な伝達学習シナリオにおいて有効であることを示し,複数のターゲットデータセットに対して最先端の性能を示す。
論文 参考訳(メタデータ) (2020-01-09T01:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。