論文の概要: Revisiting a kNN-based Image Classification System with High-capacity
Storage
- arxiv url: http://arxiv.org/abs/2204.01186v1
- Date: Sun, 3 Apr 2022 23:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 15:28:39.681960
- Title: Revisiting a kNN-based Image Classification System with High-capacity
Storage
- Title(参考訳): 高容量ストレージを用いたkNN画像分類システムの再検討
- Authors: Kengo Nakata, Youyang Ng, Daisuke Miyashita, Asuka Maki, Yu-Chieh Lin,
Jun Deguchi
- Abstract要約: 既存の画像分類システムでは、画像分類に必要な知識はモデルパラメータに暗黙的に格納される。
本稿では,画像の特徴マップやラベル,原画像などの画像分類に関する知識をモデルパラメータではなく,外部の高容量ストレージに格納するシステムについて検討する。
本システムは,事前トレーニング後のモデルパラメータを微調整することなく,ImageNetデータセット上で79.8%のTop-1精度,タスクインクリメンタル学習環境でのSplit CIFAR-100データセット上で90.8%の精度を実現している。
- 参考スコア(独自算出の注目度): 0.40125430565586456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In existing image classification systems that use deep neural networks, the
knowledge needed for image classification is implicitly stored in model
parameters. If users want to update this knowledge, then they need to fine-tune
the model parameters. Moreover, users cannot verify the validity of inference
results or evaluate the contribution of knowledge to the results. In this
paper, we investigate a system that stores knowledge for image classification,
such as image feature maps, labels, and original images, not in model
parameters but in external high-capacity storage. Our system refers to the
storage like a database when classifying input images. To increase knowledge,
our system updates the database instead of fine-tuning model parameters, which
avoids catastrophic forgetting in incremental learning scenarios. We revisit a
kNN (k-Nearest Neighbor) classifier and employ it in our system. By analyzing
the neighborhood samples referred by the kNN algorithm, we can interpret how
knowledge learned in the past is used for inference results. Our system
achieves 79.8% top-1 accuracy on the ImageNet dataset without fine-tuning model
parameters after pretraining, and 90.8% accuracy on the Split CIFAR-100 dataset
in the task incremental learning setting.
- Abstract(参考訳): ディープニューラルネットワークを用いた既存の画像分類システムでは、画像分類に必要な知識はモデルパラメータに暗黙的に格納される。
ユーザがこの知識を更新したい場合は、モデルパラメータを微調整する必要がある。
さらに、ユーザは推測結果の有効性を検証できないし、その結果に対する知識の寄与度も評価できない。
本稿では,画像特徴量マップやラベル,オリジナル画像などの画像分類に関する知識を,モデルパラメータではなく外部の高容量ストレージに格納するシステムについて検討する。
本システムは,入力画像の分類において,データベースのようなストレージを指す。
知識を高めるため,本システムはモデルパラメータを微調整するのではなくデータベースを更新する。
我々は、kNN(k-Nearest Neighbor)分類器を再検討し、システムでそれを利用する。
kNNアルゴリズムによって参照される近隣のサンプルを解析することにより、過去の知識がどのように推論結果に使われているかを理解することができる。
本システムは,事前トレーニング後のモデルパラメータを微調整せずにImageNetデータセット上で79.8%,タスクインクリメンタル学習環境でのSplit CIFAR-100データセット上で90.8%の精度を実現する。
関連論文リスト
- Image-free Classifier Injection for Zero-Shot Classification [72.66409483088995]
ゼロショット学習モデルは、訓練中に見られなかったクラスからのサンプルのイメージ分類において顕著な結果が得られる。
我々は,画像データを用いることなく,ゼロショット分類機能を備えた事前学習モデルの装備を目指す。
提案したイメージフリーインジェクション・ウィズ・セマンティックス (ICIS) でこれを実現する。
論文 参考訳(メタデータ) (2023-08-21T09:56:48Z) - Random Padding Data Augmentation [23.70951896315126]
畳み込みニューラルネットワーク(CNN)は、画像内の異なる位置で同じ物体を学習する。
CNNにおける特徴情報の空間的情報の有用性はよく研究されていない。
我々はCNNを訓練するための新しいタイプのパディング手法であるランダムパディングを紹介する。
論文 参考訳(メタデータ) (2023-02-17T04:15:33Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Multi-layer Representation Learning for Robust OOD Image Classification [3.1372269816123994]
我々は、CNNの中間層から特徴を抽出することで、モデルの最終的な予測を支援することができると主張している。
具体的には、ハイパーカラム法をResNet-18に適用し、NICOデータセットで評価した場合、モデルの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-27T17:46:06Z) - Terrain Classification using Transfer Learning on Hyperspectral Images:
A Comparative study [0.13999481573773068]
畳み込みニューラルネットワーク(CNN)とMulti-Layer Perceptron(MLP)は画像分類の有効な方法であることが証明されている。
しかし、彼らは長いトレーニング時間と大量のラベル付きデータの要求の問題に悩まされている。
本稿では,移動学習法を用いてトレーニング時間を短縮し,大規模ラベル付きデータセットへの依存を減らすことを提案する。
論文 参考訳(メタデータ) (2022-06-19T14:36:33Z) - Classification of EEG Motor Imagery Using Deep Learning for
Brain-Computer Interface Systems [79.58173794910631]
トレーニングされたT1クラス畳み込みニューラルネットワーク(CNN)モデルを使用して、運動画像の識別を成功させる能力を調べる。
理論的には、モデルが正確にトレーニングされた場合、クラスを特定し、それに従ってラベル付けすることが可能になる。
CNNモデルは復元され、より小さなサンプルデータを使用して同じ種類の運動画像データを特定するために使用される。
論文 参考訳(メタデータ) (2022-05-31T17:09:46Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - PK-GCN: Prior Knowledge Assisted Image Classification using Graph
Convolution Networks [3.4129083593356433]
クラス間の類似性は、分類のパフォーマンスに影響を与える可能性がある。
本稿では,クラス類似性の知識を畳み込みニューラルネットワークモデルに組み込む手法を提案する。
実験結果から, 利用可能なデータの量が少ない場合には, 分類精度が向上することが示唆された。
論文 参考訳(メタデータ) (2020-09-24T18:31:35Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - Overinterpretation reveals image classification model pathologies [15.950659318117694]
人気のあるベンチマーク上の畳み込みニューラルネットワーク(CNN)は、意味論的に健全な特徴がなくても高い精度を示すことができるような、厄介な病理を示す。
我々は、CIFAR-10とImageNetでトレーニングされたニューラルネットワークが過剰解釈に悩まされていることを実証した。
これらのパターンは、現実のデプロイメントにおける潜在的なモデルの脆弱性を補うものだが、実際には、ベンチマークの統計的パターンとして、高いテスト精度を達成するのに十分である。
論文 参考訳(メタデータ) (2020-03-19T17:12:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。