論文の概要: SINF: Semantic Neural Network Inference with Semantic Subgraphs
- arxiv url: http://arxiv.org/abs/2310.01259v3
- Date: Mon, 22 Sep 2025 15:57:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.563345
- Title: SINF: Semantic Neural Network Inference with Semantic Subgraphs
- Title(参考訳): SINF:意味的部分グラフを用いた意味的ニューラルネットワーク推論
- Authors: A. Q. M. Sazzad Sayyed, Francesco Restuccia,
- Abstract要約: 本稿では,新しい識別能力スコア(DCS)に基づくディープニューラルネットワーク(DNN)における意味的部分グラフを生成するセマンティック推論(SINF)を提案する。
CIFAR100とImageNetデータセットのサブセットを用いて訓練したVGG16,VGG19,ResNet50 DNNの性能評価を行った。
- 参考スコア(独自算出の注目度): 3.767257257405998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes Semantic Inference (SINF) that creates semantic subgraphs in a Deep Neural Network(DNN) based on a new Discriminative Capability Score (DCS) to drastically reduce the DNN computational load with limited performance loss.~We evaluate the performance SINF on VGG16, VGG19, and ResNet50 DNNs trained on CIFAR100 and a subset of the ImageNet dataset. Moreover, we compare its performance against 6 state-of-the-art pruning approaches. Our results show that (i) on average, SINF reduces the inference time of VGG16, VGG19, and ResNet50 respectively by up to 29%, 35%, and 15% with only 3.75%, 0.17%, and 6.75% accuracy loss for CIFAR100 while for ImageNet benchmark, the reduction in inference time is 18%, 22%, and 9% for accuracy drop of 3%, 2.5%, and 6%; (ii) DCS achieves respectively up to 3.65%, 4.25%, and 2.36% better accuracy with VGG16, VGG19, and ResNet50 with respect to existing discriminative scores for CIFAR100 and the same for ImageNet is 8.9%, 5.8%, and 5.2% respectively. Through experimental evaluation on Raspberry Pi and NVIDIA Jetson Nano, we show SINF is about 51% and 38% more energy efficient and takes about 25% and 17% less inference time than the base model for CIFAR100 and ImageNet.
- Abstract(参考訳): 本稿では,新しい識別能力スコア(DCS)に基づいて,Deep Neural Network(DNN)のセマンティックサブグラフを生成するセマンティック推論(SINF)を提案する。
我々は、CIFAR100とImageNetデータセットのサブセットでトレーニングされたVGG16、VGG19、ResNet50 DNNのパフォーマンスSINFを評価する。
さらに,その性能を6つの最先端プルーニング手法と比較した。
私たちの結果は
(i)平均で、SINFは、VGG16、VGG19、ResNet50の推論時間を、ImageNetベンチマークにおいて、CIFAR100の3.75%、0.17%、6.75%の精度で、それぞれ29%、35%、15%まで減少させる。
(ii)DCSは、既存のCIFAR100の識別スコアに対して、VGG16、VGG19、ResNet50でそれぞれ3.65%、4.25%、および2.36%の精度で達成され、ImageNetでは8.9%、5.8%、そして5.2%である。
Raspberry PiとNVIDIA Jetson Nanoの実験的評価により、SINFのエネルギー効率は約51%と38%で、CIFAR100とImageNetのベースモデルよりも25%と17%低い推論時間であることがわかった。
関連論文リスト
- Graph Neural Networks Need Cluster-Normalize-Activate Modules [19.866482154218374]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの非ユークリッドディープラーニングモデルである。
本稿では,CNA(Cluster-Normalize-Activate)という3つのステップからなるプラグアンドプレイモジュールを提案する。
CNAはノード分類とプロパティ予測タスクにおける最先端の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-05T10:59:20Z) - Towards Generalized Entropic Sparsification for Convolutional Neural Networks [0.0]
畳み込みニューラルネットワーク(CNN)は過度にパラメータ化されていると報告されている。
本稿では,計算可能エントロピー緩和を目的とした数学的アイデアに基づく層間データ駆動プルーニング手法を提案する。
スパースサブネットワークは、ネットワークエントロピー最小化をスペーサ性制約として使用した、事前訓練された(フル)CNNから得られる。
論文 参考訳(メタデータ) (2024-04-06T21:33:39Z) - Touch Analysis: An Empirical Evaluation of Machine Learning
Classification Algorithms on Touch Data [7.018254711671888]
個人を正しく分類するための新しいDeep Neural Net(DNN)アーキテクチャを提案する。
新機能と既存の機能を組み合わせると、SVMとkNNはそれぞれ94.7%と94.6%の分類精度を達成した。
論文 参考訳(メタデータ) (2023-11-23T20:31:48Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - Focal Modulation Networks [105.93086472906765]
自己注意(SA)は完全に焦点変調ネットワーク(FocalNet)に置き換えられる
ImageNet-1Kの精度は82.3%、83.9%である。
FocalNetsは下流のタスクに転送する際、顕著な優位性を示す。
論文 参考訳(メタデータ) (2022-03-22T17:54:50Z) - Training Compact CNNs for Image Classification using Dynamic-coded
Filter Fusion [139.71852076031962]
動的符号化フィルタ融合(DCFF)と呼ばれる新しいフィルタプルーニング法を提案する。
我々は、効率的な画像分類のために、計算経済的および正規化のない方法でコンパクトなCNNを導出する。
我々のDCFFは、72.77MのFLOPと1.06Mのパラメータしか持たないコンパクトなVGGNet-16を導出し、トップ1の精度は93.47%に達した。
論文 参考訳(メタデータ) (2021-07-14T18:07:38Z) - Noise Injection-based Regularization for Point Cloud Processing [17.742343473850063]
ノイズ注入に基づく正規化は、ディープニューラルネットワーク(DNN)の性能向上のために画像領域で広く利用されている。
ポイント特徴マップ上でノイズインジェクションを行うために,DropFeat,DropPoint,DropClusterといった一連の正規化手法を提案する。
実験の結果,本手法による性能改善効果が示された。
論文 参考訳(メタデータ) (2021-03-28T00:55:25Z) - ACP: Automatic Channel Pruning via Clustering and Swarm Intelligence
Optimization for CNN [6.662639002101124]
近年、畳み込みニューラルネットワーク(CNN)はより深く広がっています。
既存のマグニチュードベースの切断方法は効率的ですが、圧縮ネットワークのパフォーマンスは予測不可能です。
新規な自動チャネル切断法(ACP)を提案する。
ACPは3つの異なる分類データセットに基づいていくつかの最先端CNNに対して評価される。
論文 参考訳(メタデータ) (2021-01-16T08:56:38Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z) - Method for classifying a noisy Raman spectrum based on a wavelet
transform and a deep neural network [0.0]
エンジンは2基の主エンジンで構成されている。
1次元ラマンスペクトルを2次元データに変換するためのフレームワークフロントエンドとしてウェーブレット変換を提案する。
最適分類器は、いくつかの従来の機械学習(ML)アルゴリズムとディープラーニング(DL)アルゴリズムを実装することで選択される。
論文 参考訳(メタデータ) (2020-09-09T02:31:23Z) - Second-Order Provable Defenses against Adversarial Attacks [63.34032156196848]
ネットワークの固有値が有界であれば、凸最適化を用いて$l$ノルムの証明を効率的に計算できることを示す。
認証精度は5.78%,44.96%,43.19%であった。
論文 参考訳(メタデータ) (2020-06-01T05:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。