論文の概要: One of these (Few) Things is Not Like the Others
- arxiv url: http://arxiv.org/abs/2005.11405v1
- Date: Fri, 22 May 2020 21:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 09:09:27.015892
- Title: One of these (Few) Things is Not Like the Others
- Title(参考訳): そのうちの1つ(4つ)は他と違うもの
- Authors: Nat Roth, Justin Wagle
- Abstract要約: 本稿では,少数の例に基づいて新しい画像の分類と,それ以前のどのグループにも属さない画像の認識を両立できるモデルを提案する。
我々は,低消費電力デバイス上で動作可能な小型のセットアップを含む,モデルアーキテクチャのスペクトル上での性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To perform well, most deep learning based image classification systems
require large amounts of data and computing resources. These constraints make
it difficult to quickly personalize to individual users or train models outside
of fairly powerful machines. To deal with these problems, there has been a
large body of research into teaching machines to learn to classify images based
on only a handful of training examples, a field known as few-shot learning.
Few-shot learning research traditionally makes the simplifying assumption that
all images belong to one of a fixed number of previously seen groups. However,
many image datasets, such as a camera roll on a phone, will be noisy and
contain images that may not be relevant or fit into any clear group. We propose
a model which can both classify new images based on a small number of examples
and recognize images which do not belong to any previously seen group. We adapt
previous few-shot learning work to include a simple mechanism for learning a
cutoff that determines whether an image should be excluded or classified. We
examine how well our method performs in a realistic setting, benchmarking the
approach on a noisy and ambiguous dataset of images. We evaluate performance
over a spectrum of model architectures, including setups small enough to be run
on low powered devices, such as mobile phones or web browsers. We find that
this task of excluding irrelevant images poses significant extra difficulty
beyond that of the traditional few-shot task. We decompose the sources of this
error, and suggest future improvements that might alleviate this difficulty.
- Abstract(参考訳): 多くのディープラーニングベースの画像分類システムでは大量のデータと計算資源を必要とする。
これらの制約により、個人ユーザへの迅速なパーソナライズや、比較的強力なマシン以外のモデルのトレーニングが困難になる。
これらの問題に対処するためには、少数のトレーニング例に基づいて画像の分類を学ぶための機械を教えるための研究が数多く行われている。
ショット学習の研究は伝統的に、すべての画像が以前に見た固定数のグループの1つに属するという仮定を単純化している。
しかし、スマートフォン上のカメラロールのような多くの画像データセットは騒々しく、関連性がなく、明確なグループに収まるような画像を含んでいる。
本稿では,少数の例に基づいて新しい画像の分類と,それ以前のどのグループにも属さない画像の認識が可能なモデルを提案する。
画像の排除や分類を判断する、カットオフを学習するためのシンプルなメカニズムを含むように、前回のマイナショット学習を適応させる。
提案手法が現実的な環境でどのように機能するかを検証し,ノイズの多い曖昧な画像データセットにアプローチをベンチマークする。
我々は,携帯電話やWebブラウザなどの低消費電力デバイス上で動作可能な小型のセットアップを含む,モデルアーキテクチャの幅広い範囲のパフォーマンスを評価する。
無関係な画像を除外するこのタスクは、従来の数発のタスク以上の大きな難しさをもたらす。
我々は、この誤りの原因を分解し、この困難を軽減できる将来の改善を提案する。
関連論文リスト
- UnSeg: One Universal Unlearnable Example Generator is Enough against All Image Segmentation [64.01742988773745]
未承認のプライベートデータ上での大規模なイメージセグメンテーションモデルのトレーニングに関して、プライバシーに関する懸念が高まっている。
我々は、学習不可能な例の概念を利用して、学習不可能なノイズを原画像に生成し、付加することにより、モデルトレーニングに使用不能な画像を作成する。
6つのメインストリームイメージセグメンテーションタスク、10つの広く使われているデータセット、7つの異なるネットワークアーキテクチャでUnSegの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-13T16:34:46Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - One-Shot Image Restoration [0.0]
提案手法の適用性, 堅牢性, 計算効率を, 教師付き画像の劣化と超解像に応用できることを実験的に示す。
本結果は,学習モデルのサンプル効率,一般化,時間複雑性を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2024-04-26T14:03:23Z) - Mixture of Self-Supervised Learning [2.191505742658975]
自己教師型学習は、特定のタスクに適用される前にモデル上でトレーニングされるプレテキストタスクを使用することで機能する。
従来の研究では、プリテキストタスクとして1つのタイプの変換しか使用されていなかった。
これにより、複数のプリテキストタスクが使用されているかどうか、すべてのプリテキストタスクを組み合わせるためにゲーティングネットワークを使用するかどうか、という疑問が持ち上がる。
論文 参考訳(メタデータ) (2023-07-27T14:38:32Z) - Enhance Images as You Like with Unpaired Learning [8.104571453311442]
本稿では,低照度から高照度の画像空間における一対多の関係を学習するために,軽量な一経路条件生成対向ネットワーク(cGAN)を提案する。
我々のネットワークは、様々な参照画像上に設定された所定の入力条件から、拡張された画像の集合を生成することを学習する。
我々のモデルは、ノイズとクリーンなデータセットの完全な教師付き手法と同等に競合する視覚的および定量的な結果を得る。
論文 参考訳(メタデータ) (2021-10-04T03:00:44Z) - LibFewShot: A Comprehensive Library for Few-shot Learning [78.58842209282724]
近年,画像分類に注目が集まり,近年顕著な進歩が見られた。
近年の研究では、データ強化、事前学習、知識蒸留、自己超越といった多くの一般的な手法や技法が、数発の学習法の性能を大幅に向上させる可能性があることが暗黙的に示されている。
そこで本研究では,PyTorchに固有の単一言語を組み込んだ一貫したフレームワークにおいて,17の最先端の複数ショット学習手法を再実装することにより,小ショット学習のための総合ライブラリ(LibFewShot)を提案する。
論文 参考訳(メタデータ) (2021-09-10T14:12:37Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - One-Shot Image Classification by Learning to Restore Prototypes [11.448423413463916]
ワンショット画像分類は、カテゴリ毎に1つの画像しか持たないデータセット上で、イメージ分類器を訓練することを目的としている。
ワンショット学習では、既存のメトリック学習アプローチは、単一のトレーニングイメージがクラスを代表するものではない可能性があるため、パフォーマンスが低下する。
本稿では,RestoreNet で表される単純な回帰モデルを提案する。画像特徴のクラス変換を学習し,特徴空間のクラス中心に画像を移動させる。
論文 参考訳(メタデータ) (2020-05-04T02:11:30Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。