論文の概要: On Training Sketch Recognizers for New Domains
- arxiv url: http://arxiv.org/abs/2104.08850v1
- Date: Sun, 18 Apr 2021 13:24:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:28:02.560457
- Title: On Training Sketch Recognizers for New Domains
- Title(参考訳): 新しいドメインに対するスケッチ認識の訓練について
- Authors: Kemal Tugrul Yesilbek, T. Metin Sezgin
- Abstract要約: データ収集プロトコルの生態学的妥当性と小さなデータセットに対応する能力は、現実的なシナリオにおける認識者の精度に影響を与える重要な要因であることを示す。
データが乏しく高価である現実的なシナリオでは、ディープラーニングを小さなデータセットに適応させるための標準的措置が、代替手段と好意的に比較できないことを実証する。
- 参考スコア(独自算出の注目度): 3.8149289266694466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sketch recognition algorithms are engineered and evaluated using publicly
available datasets contributed by the sketch recognition community over the
years. While existing datasets contain sketches of a limited set of generic
objects, each new domain inevitably requires collecting new data for training
domain specific recognizers. This gives rise to two fundamental concerns:
First, will the data collection protocol yield ecologically valid data? Second,
will the amount of collected data suffice to train sufficiently accurate
classifiers? In this paper, we draw attention to these two concerns. We show
that the ecological validity of the data collection protocol and the ability to
accommodate small datasets are significant factors impacting recognizer
accuracy in realistic scenarios. More specifically, using sketch-based gaming
as a use case, we show that deep learning methods, as well as more traditional
methods, suffer significantly from dataset shift. Furthermore, we demonstrate
that in realistic scenarios where data is scarce and expensive, standard
measures taken for adapting deep learners to small datasets fall short of
comparing favorably with alternatives. Although transfer learning, and
extensive data augmentation help deep learners, they still perform
significantly worse compared to standard setups (e.g., SVMs and GBMs with
standard feature representations). We pose learning from small datasets as a
key problem for the deep sketch recognition field, one which has been ignored
in the bulk of the existing literature.
- Abstract(参考訳): スケッチ認識アルゴリズムは,何年にもわたって,スケッチ認識コミュニティによって寄贈された公開データセットを用いて設計,評価されている。
既存のデータセットには、限られたジェネリックオブジェクトのスケッチが含まれているが、各新しいドメインは必然的に、ドメイン固有の認識器をトレーニングするための新しいデータを集める必要がある。
まず、データ収集プロトコルは、生態学的に有効なデータを生成するだろうか?
第二に、収集したデータ量が十分に正確な分類器を訓練するのに十分か?
本稿では,この2つの懸念に注意を向ける。
データ収集プロトコルの生態学的妥当性と小さなデータセットに対応する能力は、現実的なシナリオにおける認識者の精度に影響を与える重要な要因であることを示す。
より具体的には、スケッチベースのゲームをユースケースとして用いることで、より伝統的な方法と同様に、ディープラーニングの手法がデータセットのシフトに著しく苦しむことを示します。
さらに,データが少ない,費用がかかる現実的なシナリオでは,ディープラーニングを小さなデータセットに適応させるための標準的措置が,代替手段と好意的に比較できないことを実証する。
転送学習や広範なデータ拡張は深層学習者に役立つが、標準設定(svmsやgbmsなど)と比較しても、パフォーマンスは著しく低下する。
既存の文献の多くでは無視されている深部スケッチ認識分野において,小さなデータセットからの学習が重要な問題となっている。
関連論文リスト
- Combining Public Human Activity Recognition Datasets to Mitigate Labeled
Data Scarcity [1.274578243851308]
本稿では,一般公開されたデータセットと一般化されたHARモデルを学習するための新たな戦略を提案する。
我々の実験評価は、さまざまな最先端ニューラルネットワークアーキテクチャの実験を含むもので、公開データセットを組み合わせることで、ラベル付きサンプルの数を著しく削減できることを示している。
論文 参考訳(メタデータ) (2023-06-23T18:51:22Z) - Localized Shortcut Removal [4.511561231517167]
保持されたテストデータのハイパフォーマンスは、モデルを一般化したり、意味のあるものを学ぶことを必ずしも示さない。
これはしばしば、機械学習のショートカットの存在が原因である。
我々は、逆向きに訓練されたレンズを用いて、画像中の非常に予測的だが意味的に無関係な手がかりを検出し、排除する。
論文 参考訳(メタデータ) (2022-11-24T13:05:33Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Dominant Set-based Active Learning for Text Classification and its
Application to Online Social Media [0.0]
本稿では,最小限のアノテーションコストで大規模未ラベルコーパスのトレーニングを行うための,プールベースのアクティブラーニング手法を提案する。
提案手法には調整すべきパラメータが一切ないため,データセットに依存しない。
本手法は,最先端のアクティブラーニング戦略と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T19:19:03Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - DomainMix: Learning Generalizable Person Re-Identification Without Human
Annotations [89.78473564527688]
本稿では,ラベル付き合成データセットとラベル付き実世界のデータセットを用いてユニバーサルモデルをトレーニングする方法を示す。
このように、人間のアノテーションはもはや不要であり、大規模で多様な現実世界のデータセットにスケーラブルである。
実験結果から,提案手法は完全な人間のアノテーションで訓練されたアノテーションとほぼ同等であることがわかった。
論文 参考訳(メタデータ) (2020-11-24T08:15:53Z) - Adversarial Knowledge Transfer from Unlabeled Data [62.97253639100014]
本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
論文 参考訳(メタデータ) (2020-08-13T08:04:27Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。