論文の概要: Yin Yang Convolutional Nets: Image Manifold Extraction by the Analysis
of Opposites
- arxiv url: http://arxiv.org/abs/2310.16148v1
- Date: Tue, 24 Oct 2023 19:48:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 18:18:21.595207
- Title: Yin Yang Convolutional Nets: Image Manifold Extraction by the Analysis
of Opposites
- Title(参考訳): Yin Yang Convolutional Nets:Opposites解析による画像マニフォールド抽出
- Authors: Augusto Seben da Rosa, Frederico Santos de Oliveira, Anderson da Silva
Soares, Arnaldo Candido Junior
- Abstract要約: Yin Yang Convolutional Networkは、視覚多様体を抽出するアーキテクチャである。
最初のモデルでは、テスト精度93.32%に達し、このカテゴリーでは古いSOTAよりも0.8%高かった。
ImageNetでも分析を行い、1.6Mパラメータで66.49%の精度で検証しました。
- 参考スコア(独自算出の注目度): 1.1560177966221703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision in general presented several advances such as training
optimizations, new architectures (pure attention, efficient block, vision
language models, generative models, among others). This have improved
performance in several tasks such as classification, and others. However, the
majority of these models focus on modifications that are taking distance from
realistic neuroscientific approaches related to the brain. In this work, we
adopt a more bio-inspired approach and present the Yin Yang Convolutional
Network, an architecture that extracts visual manifold, its blocks are intended
to separate analysis of colors and forms at its initial layers, simulating
occipital lobe's operations. Our results shows that our architecture provides
State-of-the-Art efficiency among low parameter architectures in the dataset
CIFAR-10. Our first model reached 93.32\% test accuracy, 0.8\% more than the
older SOTA in this category, while having 150k less parameters (726k in total).
Our second model uses 52k parameters, losing only 3.86\% test accuracy. We also
performed an analysis on ImageNet, where we reached 66.49\% validation accuracy
with 1.6M parameters. We make the code publicly available at:
https://github.com/NoSavedDATA/YinYang_CNN.
- Abstract(参考訳): コンピュータビジョンは、トレーニング最適化、新しいアーキテクチャ(純粋注意、効率的なブロック、視覚言語モデル、生成モデルなど)など、いくつかの進歩を示した。
これにより、分類などのいくつかのタスクのパフォーマンスが向上した。
しかし、これらのモデルの大部分は、脳に関する現実的な神経科学的アプローチから遠ざかっている修正に焦点を当てている。
本研究では,視覚多様体を抽出するアーキテクチャであるYin Yang Convolutional Network(Yin Yang Convolutional Network,Yin Yang Convolutional Network,Yin Yang Convolutional Network,Yin Yang Convolutional Network,Yin Yang Convolutional Network,Yin Yang Convolutional Network)を紹介する。
我々のアーキテクチャは,データセットCIFAR-10の低パラメータアーキテクチャ間で,最先端の効率を提供することを示す。
最初のモデルは93.32\%テスト精度に達し、このカテゴリの古いsomaよりも0.8\%高く、パラメータは15,000未満(726k)でした。
第2のモデルは52kパラメータを使用し、テスト精度はわずか3.86\%です。
ImageNetでも分析を行い、1.6Mパラメータで66.49\%の精度で検証しました。
コードはhttps://github.com/NoSavedDATA/YinYang_CNNで公開しています。
関連論文リスト
- Receptive Field Refinement for Convolutional Neural Networks Reliably
Improves Predictive Performance [1.52292571922932]
本稿では,このような理論的および経験的性能向上をもたらす受容場解析への新たなアプローチを提案する。
我々のアプローチは、広く知られたSOTA(State-of-the-art)モデルクラスにおいて、ImageNet1Kのパフォーマンスを改善することができる。
論文 参考訳(メタデータ) (2022-11-26T05:27:44Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - EVC-Net: Multi-scale V-Net with Conditional Random Fields for Brain
Extraction [3.4376560669160394]
EVC-Netは各エンコーダブロックに低スケール入力を追加する。
条件付きランダムフィールドは、ネットワークの出力を洗練するための追加ステップとしてここで再導入される。
その結果、限られたトレーニングリソースであっても、EVC-Netはより高いDice CoefficientとJaccard Indexを達成することがわかった。
論文 参考訳(メタデータ) (2022-06-06T18:21:21Z) - SmoothNets: Optimizing CNN architecture design for differentially
private deep learning [69.10072367807095]
DPSGDは、サンプルごとの勾配の切り抜きとノイズ付けを必要とする。
これにより、非プライベートトレーニングと比較してモデルユーティリティが削減される。
SmoothNetと呼ばれる新しいモデルアーキテクチャを蒸留し,DP-SGDトレーニングの課題に対するロバスト性の向上を特徴とした。
論文 参考訳(メタデータ) (2022-05-09T07:51:54Z) - Forward-Looking Sonar Patch Matching: Modern CNNs, Ensembling, and
Uncertainty [0.0]
畳み込みニューラルネットワーク(CNN)は類似性関数を学習し、2つの入力ソナー画像が似ているかどうかを予測する。
最高の性能モデルは、0.955 AUCのDenseNet Two-Channelネットワーク、0.949 AUCのVGG-Siamese、0.921 AUCのDenseNet Siameseである。
論文 参考訳(メタデータ) (2021-08-02T17:49:56Z) - A contextual analysis of multi-layer perceptron models in classifying
hand-written digits and letters: limited resources [0.0]
我々は,前処理や特徴抽出を行わずに,終端から終端までのバニラニューラルネットワーク(MLP)アプローチを純粋に検証した。
基礎的なデータマイニング操作は,計算時間の観点からモデルの性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2021-07-05T04:30:37Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Benchmarking CNN on 3D Anatomical Brain MRI: Architectures, Data
Augmentation and Deep Ensemble Learning [2.1446056201053185]
我々は最近のSOTA(State-of-the-art)3D CNNの広範なベンチマークを提案し、データ拡張と深層アンサンブル学習の利点も評価した。
年齢予測,性別分類,統合失調症診断の3つの課題について,N=10kスキャンを含む多地点の脳解剖学的MRIデータセットを用いて実験を行った。
その結果,VBM画像の予測精度は擬似RAWデータよりも有意に向上した。
DenseNetとSmall-DenseNetは、私たちが提案したより軽量なバージョンで、すべてのデータレシエーションのパフォーマンスにおいて優れた妥協を提供する。
論文 参考訳(メタデータ) (2021-06-02T13:00:35Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。