論文の概要: A Strong Inductive Bias: Gzip for binary image classification
- arxiv url: http://arxiv.org/abs/2401.07392v1
- Date: Sun, 14 Jan 2024 23:35:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 18:34:12.861951
- Title: A Strong Inductive Bias: Gzip for binary image classification
- Title(参考訳): 強い誘導バイアス:二元画像分類のためのGzip
- Authors: Marco Scilipoti, Marina Fuster and Rodrigo Ramele
- Abstract要約: 本稿では,Gzipのような汎用圧縮機と近接した近接画像分類器を併用したバイナリ画像分類モデルを提案する。
精度が向上し、数ショット設定で2桁以上の空間をはるかに少ない精度で利用できることが示される。
結果として、少数のシナリオにおいて、より強い帰納バイアスを持つモデルの未解決ポテンシャルが弱まると信じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning networks have become the de-facto standard in Computer Vision
for industry and research. However, recent developments in their cousin,
Natural Language Processing (NLP), have shown that there are areas where
parameter-less models with strong inductive biases can serve as computationally
cheaper and simpler alternatives. We propose such a model for binary image
classification: a nearest neighbor classifier combined with a general purpose
compressor like Gzip. We test and compare it against popular deep learning
networks like Resnet, EfficientNet and Mobilenet and show that it achieves
better accuracy and utilizes significantly less space, more than two order of
magnitude, within a few-shot setting. As a result, we believe that this
underlines the untapped potential of models with stronger inductive biases in
few-shot scenarios.
- Abstract(参考訳): ディープラーニングネットワークは、産業と研究のためのコンピュータビジョンのデファクトスタンダードになっている。
しかし、従兄弟である自然言語処理(nlp)における最近の進展は、強い帰納的バイアスを持つパラメータレスモデルが計算上安価でより単純な代替手段として役立つことを示した。
本稿では,Gzipのような汎用圧縮機と隣接した2値画像分類モデルを提案する。
Resnet、EfficientNet、Mobilenetといった一般的なディープラーニングネットワークと比較し、精度が向上し、2桁以上の空間を数ショット設定で大幅に削減できることを示します。
結果として、少数のシナリオにおいて、より強い帰納バイアスを持つモデルの未解決ポテンシャルが弱まると信じている。
関連論文リスト
- CoNe: Contrast Your Neighbours for Supervised Image Classification [62.12074282211957]
Contrast Your Neighbours (CoNe)は、教師付き画像分類のための学習フレームワークである。
CoNeは、より適応的で洗練されたターゲットを生成するために、類似した隣人の特徴をアンカーとして採用している。
私たちのCoNeは、最近のTimトレーニングレシピを上回るResNet-50で、ImageNetの80.8%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2023-08-21T14:49:37Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - PRANC: Pseudo RAndom Networks for Compacting deep models [22.793523211040682]
PRANCはディープモデルの大幅なコンパクト化を可能にする。
本研究では,PRANCを用いて画像分類モデルを構築し,関連する暗黙的ニューラルネットワークをコンパクト化することで画像の圧縮を行う。
論文 参考訳(メタデータ) (2022-06-16T22:03:35Z) - Wide and Deep Neural Networks Achieve Optimality for Classification [23.738242876364865]
我々は、最適性を達成するニューラルネットワーク分類器の明示的な集合を同定し、構築する。
特に、最適性を実現するネットワーク構築に使用できる明示的なアクティベーション関数を提供する。
その結果,過度な深度が有害な回帰タスクとは対照的に,分類タスクにディープネットワークを使用することの利点が浮き彫りになった。
論文 参考訳(メタデータ) (2022-04-29T14:27:42Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Intrusion Detection: Machine Learning Baseline Calculations for Image
Classification [0.0]
サイバーセキュリティは、機械学習の適用によって強化できる。
最も期待できる候補は、ライトマシン、ランダムフォレストブースト、エクストラツリーズである。
論文 参考訳(メタデータ) (2021-11-03T17:49:38Z) - The Case for High-Accuracy Classification: Think Small, Think Many! [4.817521691828748]
簡単な色特徴の組み合わせに基づく効率的で軽量な深層分類アンサンブル構造を提案する。
評価の結果,resnet-50モデルと比較して予測精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-03-18T16:15:31Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - MetaDistiller: Network Self-Boosting via Meta-Learned Top-Down
Distillation [153.56211546576978]
本研究では,ラベル生成器を用いて高い適合性を有するソフトターゲットを生成することを提案する。
このラベルジェネレータを最適化するためにメタ学習技術を用いることができる。
実験は CIFAR-100 と ILSVRC2012 の2つの標準分類ベンチマークで実施された。
論文 参考訳(メタデータ) (2020-08-27T13:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。