論文の概要: Cross-Model Image Annotation Platform with Active Learning
- arxiv url: http://arxiv.org/abs/2008.02421v1
- Date: Thu, 6 Aug 2020 01:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:11:25.667503
- Title: Cross-Model Image Annotation Platform with Active Learning
- Title(参考訳): アクティブラーニングによるクロスモデル画像アノテーションプラットフォーム
- Authors: Ng Hui Xian Lynnette, Henry Ng Siong Hock, Nguwi Yok Yen
- Abstract要約: オブジェクトアノテーションと認識のためのEnd-to-Endパイプラインツールを提供する。
我々は,画像アノテーション,アクティブラーニング,モデルトレーニング,評価をシームレスに組み込んだモジュール型画像アノテーションプラットフォームを開発した。
最高精度は74%。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We have seen significant leapfrog advancement in machine learning in recent
decades. The central idea of machine learnability lies on constructing learning
algorithms that learn from good data. The availability of more data being made
publicly available also accelerates the growth of AI in recent years. In the
domain of computer vision, the quality of image data arises from the accuracy
of image annotation. Labeling large volume of image data is a daunting and
tedious task. This work presents an End-to-End pipeline tool for object
annotation and recognition aims at enabling quick image labeling. We have
developed a modular image annotation platform which seamlessly incorporates
assisted image annotation (annotation assistance), active learning and model
training and evaluation. Our approach provides a number of advantages over
current image annotation tools. Firstly, the annotation assistance utilizes
reference hierarchy and reference images to locate the objects in the images,
thus reducing the need for annotating the whole object. Secondly, images can be
annotated using polygon points allowing for objects of any shape to be
annotated. Thirdly, it is also interoperable across several image models, and
the tool provides an interface for object model training and evaluation across
a series of pre-trained models. We have tested the model and embeds several
benchmarking deep learning models. The highest accuracy achieved is 74%.
- Abstract(参考訳): ここ数十年、機械学習の飛躍的な進歩が見られた。
機械学習可能性の中心的な考え方は、優れたデータから学ぶ学習アルゴリズムの構築にある。
より多くのデータが公開されたことにより、近年のaiの成長も加速している。
コンピュータビジョンの分野では、画像データの品質は画像アノテーションの精度から生じる。
大量の画像データをラベル付けするのは面倒で面倒な作業だ。
本研究ではオブジェクトアノテーションと認識のためのEnd-to-Endパイプラインツールを提案する。
我々は,画像アノテーション支援(注釈支援),アクティブラーニング,モデルトレーニング,評価をシームレスに組み込んだモジュラー画像アノテーションプラットフォームを開発した。
私たちのアプローチは、現在の画像アノテーションツールよりも多くの利点を提供します。
まず、アノテーションアシストは参照階層と参照イメージを使用して画像中のオブジェクトを特定することで、オブジェクト全体を注釈付けする必要がなくなる。
第二に、画像はポリゴン点を使ってアノテートすることができ、任意の形状のオブジェクトにアノテートすることができる。
第3に、複数のイメージモデル間で相互運用可能で、一連の事前トレーニングされたモデルに対して、オブジェクトモデルのトレーニングと評価のためのインターフェースを提供する。
私たちはこのモデルをテストし、いくつかのベンチマークディープラーニングモデルを組み込んだ。
最高精度は74%である。
関連論文リスト
- Feedback-driven object detection and iterative model improvement [2.3700911865675187]
本稿では,オブジェクト検出モデルの改良を目的としたプラットフォームの開発と評価について述べる。
このプラットフォームでは、イメージのアップロードとアノテートに加えて、微調整されたオブジェクト検出モデルも可能だ。
手動アノテーションと比較して,半自動で最大53%の時間短縮効果を示す。
論文 参考訳(メタデータ) (2024-11-29T16:45:25Z) - Helping Hands: An Object-Aware Ego-Centric Video Recognition Model [60.350851196619296]
オブジェクト認識デコーダを導入し、エゴ中心の動画におけるエゴ中心の表現の性能を向上させる。
このモデルは,エゴ認識ビデオモデルの代替として機能し,視覚テキストのグラウンド化による性能向上を図っている。
論文 参考訳(メタデータ) (2023-08-15T17:58:11Z) - DINOv2: Learning Robust Visual Features without Supervision [75.42921276202522]
この研究は、既存の事前学習手法、特に自己教師付き手法が、多様なソースから十分なキュレートされたデータで訓練すれば、そのような特徴を生み出すことができることを示している。
技術的な貢献の多くは、大規模なトレーニングを加速し、安定化することを目的としています。
データの観点からは、自己組織化されていないデータではなく、専用で多様でキュレートされた画像データセットを構築するための自動パイプラインを提案する。
論文 参考訳(メタデータ) (2023-04-14T15:12:19Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Robustar: Interactive Toolbox Supporting Precise Data Annotation for
Robust Vision Learning [53.900911121695536]
ソフトウェアRobustarの初期リリースを紹介します。
それは、データ駆動の観点から視覚分類機械学習モデルの堅牢性を改善することを目的としている。
論文 参考訳(メタデータ) (2022-07-18T21:12:28Z) - Vision Models Are More Robust And Fair When Pretrained On Uncurated
Images Without Supervision [38.22842778742829]
差別的な自己教師型学習は、インターネット画像の任意のランダムなグループでのトレーニングモデルを可能にする。
データ前処理や事前の仮定なしで、何十億ものランダムなイメージでモデルをトレーニングします。
フェアネス、分布シフト、地理的多様性、微粒化認識、画像コピー検出、および多くの画像分類データセットを含む50以上のベンチマークにおいて、我々のモデル性能を広範囲に研究し、検証した。
論文 参考訳(メタデータ) (2022-02-16T22:26:47Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。