論文の概要: SINF: Semantic Neural Network Inference with Semantic Subgraphs
- arxiv url: http://arxiv.org/abs/2310.01259v3
- Date: Mon, 22 Sep 2025 15:57:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.563345
- Title: SINF: Semantic Neural Network Inference with Semantic Subgraphs
- Title(参考訳): SINF:意味的部分グラフを用いた意味的ニューラルネットワーク推論
- Authors: A. Q. M. Sazzad Sayyed, Francesco Restuccia,
- Abstract要約: 本稿では,新しい識別能力スコア(DCS)に基づくディープニューラルネットワーク(DNN)における意味的部分グラフを生成するセマンティック推論(SINF)を提案する。
CIFAR100とImageNetデータセットのサブセットを用いて訓練したVGG16,VGG19,ResNet50 DNNの性能評価を行った。
- 参考スコア(独自算出の注目度): 3.767257257405998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes Semantic Inference (SINF) that creates semantic subgraphs in a Deep Neural Network(DNN) based on a new Discriminative Capability Score (DCS) to drastically reduce the DNN computational load with limited performance loss.~We evaluate the performance SINF on VGG16, VGG19, and ResNet50 DNNs trained on CIFAR100 and a subset of the ImageNet dataset. Moreover, we compare its performance against 6 state-of-the-art pruning approaches. Our results show that (i) on average, SINF reduces the inference time of VGG16, VGG19, and ResNet50 respectively by up to 29%, 35%, and 15% with only 3.75%, 0.17%, and 6.75% accuracy loss for CIFAR100 while for ImageNet benchmark, the reduction in inference time is 18%, 22%, and 9% for accuracy drop of 3%, 2.5%, and 6%; (ii) DCS achieves respectively up to 3.65%, 4.25%, and 2.36% better accuracy with VGG16, VGG19, and ResNet50 with respect to existing discriminative scores for CIFAR100 and the same for ImageNet is 8.9%, 5.8%, and 5.2% respectively. Through experimental evaluation on Raspberry Pi and NVIDIA Jetson Nano, we show SINF is about 51% and 38% more energy efficient and takes about 25% and 17% less inference time than the base model for CIFAR100 and ImageNet.
- Abstract(参考訳): 本稿では,新しい識別能力スコア(DCS)に基づいて,Deep Neural Network(DNN)のセマンティックサブグラフを生成するセマンティック推論(SINF)を提案する。
我々は、CIFAR100とImageNetデータセットのサブセットでトレーニングされたVGG16、VGG19、ResNet50 DNNのパフォーマンスSINFを評価する。
さらに,その性能を6つの最先端プルーニング手法と比較した。
私たちの結果は
(i)平均で、SINFは、VGG16、VGG19、ResNet50の推論時間を、ImageNetベンチマークにおいて、CIFAR100の3.75%、0.17%、6.75%の精度で、それぞれ29%、35%、15%まで減少させる。
(ii)DCSは、既存のCIFAR100の識別スコアに対して、VGG16、VGG19、ResNet50でそれぞれ3.65%、4.25%、および2.36%の精度で達成され、ImageNetでは8.9%、5.8%、そして5.2%である。
Raspberry PiとNVIDIA Jetson Nanoの実験的評価により、SINFのエネルギー効率は約51%と38%で、CIFAR100とImageNetのベースモデルよりも25%と17%低い推論時間であることがわかった。
関連論文リスト
- SOLAR: Switchable Output Layer for Accuracy and Robustness in Once-for-All Training [5.872858426296439]
once-for-All(OFA)トレーニングにより、単一のスーパーネットが、多様なデプロイメントシナリオに適した複数のサブネットを生成することができる。
我々は,各サブネットに個別の分類ヘッドを割り当てる技術であるSOLAR(Switchable Output Layer for Accuracy and Robustness in Once-for-All Training)を提案する。
論文 参考訳(メタデータ) (2025-09-20T23:15:28Z) - Time Frequency Analysis of EMG Signal for Gesture Recognition using Fine grained Features [3.9440964696313485]
本稿では,細粒度分類を用いた手動作認識のための新しい手法を提案する。
XMANetは、浅層から深層CNNの専門家の間での相互注意を通じて、低レベルの局所的および高レベルのセマンティックキューを統一する。
論文 参考訳(メタデータ) (2025-04-20T18:51:10Z) - Graph Neural Networks Need Cluster-Normalize-Activate Modules [19.866482154218374]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの非ユークリッドディープラーニングモデルである。
本稿では,CNA(Cluster-Normalize-Activate)という3つのステップからなるプラグアンドプレイモジュールを提案する。
CNAはノード分類とプロパティ予測タスクにおける最先端の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-05T10:59:20Z) - Towards Generalized Entropic Sparsification for Convolutional Neural Networks [0.0]
畳み込みニューラルネットワーク(CNN)は過度にパラメータ化されていると報告されている。
本稿では,計算可能エントロピー緩和を目的とした数学的アイデアに基づく層間データ駆動プルーニング手法を提案する。
スパースサブネットワークは、ネットワークエントロピー最小化をスペーサ性制約として使用した、事前訓練された(フル)CNNから得られる。
論文 参考訳(メタデータ) (2024-04-06T21:33:39Z) - Touch Analysis: An Empirical Evaluation of Machine Learning
Classification Algorithms on Touch Data [7.018254711671888]
個人を正しく分類するための新しいDeep Neural Net(DNN)アーキテクチャを提案する。
新機能と既存の機能を組み合わせると、SVMとkNNはそれぞれ94.7%と94.6%の分類精度を達成した。
論文 参考訳(メタデータ) (2023-11-23T20:31:48Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness
with Dataset Reinforcement [68.44100784364987]
本研究では、強化データセット上でトレーニングされたモデルアーキテクチャの精度が、ユーザにとって追加のトレーニングコストなしで向上するように、データセットを改善する戦略を提案する。
ImageNet+と呼ばれるImageNetトレーニングデータセットの強化バージョンと、強化されたデータセットCIFAR-100+、Flowers-102+、Food-101+を作成します。
ImageNet+でトレーニングされたモデルは、より正確で、堅牢で、校正され、下流タスクにうまく転送されます。
論文 参考訳(メタデータ) (2023-03-15T23:10:17Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - Focal Modulation Networks [105.93086472906765]
自己注意(SA)は完全に焦点変調ネットワーク(FocalNet)に置き換えられる
ImageNet-1Kの精度は82.3%、83.9%である。
FocalNetsは下流のタスクに転送する際、顕著な優位性を示す。
論文 参考訳(メタデータ) (2022-03-22T17:54:50Z) - BottleFit: Learning Compressed Representations in Deep Neural Networks
for Effective and Efficient Split Computing [48.11023234245863]
圧縮速度が強い場合でも高い精度を達成するための新しいトレーニング戦略を含む,BottleFitと呼ばれる新しいフレームワークを提案する。
BottleFitは77.1%のデータ圧縮を実現し、ImageNetデータセットでは最大で0.6%の精度でロスする。
本稿では,BottleFitが消費電力とレイテンシを最大で49%,(w.r.t.)ローカルコンピューティングでは89%,エッジオフロードでは37%,W.r.t.エッジオフロードでは55%削減することを示した。
論文 参考訳(メタデータ) (2022-01-07T22:08:07Z) - Problem-dependent attention and effort in neural networks with
applications to image resolution and model selection [0.0]
本稿では,画像分類におけるデータと計算コストを削減するために,アンサンブルに基づく2つの新しい手法を提案する。
任意の分類器で使用することができ、追加のトレーニングを必要としない。
論文 参考訳(メタデータ) (2022-01-05T02:27:35Z) - Training Compact CNNs for Image Classification using Dynamic-coded
Filter Fusion [139.71852076031962]
動的符号化フィルタ融合(DCFF)と呼ばれる新しいフィルタプルーニング法を提案する。
我々は、効率的な画像分類のために、計算経済的および正規化のない方法でコンパクトなCNNを導出する。
我々のDCFFは、72.77MのFLOPと1.06Mのパラメータしか持たないコンパクトなVGGNet-16を導出し、トップ1の精度は93.47%に達した。
論文 参考訳(メタデータ) (2021-07-14T18:07:38Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - Deep learning-based Edge-aware pre and post-processing methods for JPEG
compressed images [7.803786205476811]
本稿では,前処理と後処理の深いCNN間の標準を包含する学習ベース圧縮方式を提案する。
本稿では, 圧縮圧縮ネットワークを利用した先行手法の改良を, (a) 従来の作業でよく発生するぼやけを防止するエッジ認識損失関数, (b) 処理後処理のための超解像畳み込みニューラルネットワーク, および, 対応する前処理ネットワークを導入し, レート歪み性能の向上を図る。
論文 参考訳(メタデータ) (2021-04-11T05:50:31Z) - Noise Injection-based Regularization for Point Cloud Processing [17.742343473850063]
ノイズ注入に基づく正規化は、ディープニューラルネットワーク(DNN)の性能向上のために画像領域で広く利用されている。
ポイント特徴マップ上でノイズインジェクションを行うために,DropFeat,DropPoint,DropClusterといった一連の正規化手法を提案する。
実験の結果,本手法による性能改善効果が示された。
論文 参考訳(メタデータ) (2021-03-28T00:55:25Z) - ACP: Automatic Channel Pruning via Clustering and Swarm Intelligence
Optimization for CNN [6.662639002101124]
近年、畳み込みニューラルネットワーク(CNN)はより深く広がっています。
既存のマグニチュードベースの切断方法は効率的ですが、圧縮ネットワークのパフォーマンスは予測不可能です。
新規な自動チャネル切断法(ACP)を提案する。
ACPは3つの異なる分類データセットに基づいていくつかの最先端CNNに対して評価される。
論文 参考訳(メタデータ) (2021-01-16T08:56:38Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z) - Revisiting Batch Normalization for Improving Corruption Robustness [85.20742045853738]
モデルロバスト性を改善するために, モデルロバスト性を改善するために, バッチ正規化統計の修正を提案する。
モデルを再トレーニングすることなく、BN統計をいくつかの表現サンプル上で単純に推定し、適応させることで、大きなマージンによる腐敗の堅牢性を向上させることが判明した。
論文 参考訳(メタデータ) (2020-10-07T19:56:47Z) - Method for classifying a noisy Raman spectrum based on a wavelet
transform and a deep neural network [0.0]
エンジンは2基の主エンジンで構成されている。
1次元ラマンスペクトルを2次元データに変換するためのフレームワークフロントエンドとしてウェーブレット変換を提案する。
最適分類器は、いくつかの従来の機械学習(ML)アルゴリズムとディープラーニング(DL)アルゴリズムを実装することで選択される。
論文 参考訳(メタデータ) (2020-09-09T02:31:23Z) - Second-Order Provable Defenses against Adversarial Attacks [63.34032156196848]
ネットワークの固有値が有界であれば、凸最適化を用いて$l$ノルムの証明を効率的に計算できることを示す。
認証精度は5.78%,44.96%,43.19%であった。
論文 参考訳(メタデータ) (2020-06-01T05:55:18Z) - Fixing the train-test resolution discrepancy: FixEfficientNet [98.64315617109344]
本稿では,複数のトレーニング手順を用いて,効率的なNet画像分類器の性能解析を行う。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
論文 参考訳(メタデータ) (2020-03-18T14:22:58Z) - Pre-defined Sparsity for Low-Complexity Convolutional Neural Networks [9.409651543514615]
この研究は、フィルタ内で定期的に繰り返されるサポートセットを持つ、事前に定義されたスパース2Dカーネルを持つ畳み込みレイヤを導入している。
周期的なスパースカーネルの効率的な保存のため、パラメータの節約はエネルギー効率を大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-01-29T07:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。