論文の概要: Application of discrete Ricci curvature in pruning randomly wired neural networks: A case study with chest x-ray classification of COVID-19
- arxiv url: http://arxiv.org/abs/2509.05322v1
- Date: Sat, 30 Aug 2025 18:50:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 16:12:15.234037
- Title: Application of discrete Ricci curvature in pruning randomly wired neural networks: A case study with chest x-ray classification of COVID-19
- Title(参考訳): ランダム有線ニューラルネットワークにおける離散リッチ曲率の応用 : COVID-19の胸部X線分類による検討
- Authors: Pavithra Elumalai, Sudharsan Vijayaraghavan, Madhumita Mondal, Areejit Samal,
- Abstract要約: Randomly Wired Neural Networks (RWNN) は、ディープラーニングにおけるネットワークトポロジの影響を調査するための貴重なテストベッドとして機能する。
本研究では,Forman-Ricci curvature (FRC), Ollivier-Ricci curvature (ORC), edge betweenness centrality (EBC)の3つのエッジ中心ネットワーク対策について検討した。
FRCベースのプルーニングはRWNNを効果的に単純化し、ORCに匹敵する性能を維持しながら計算上の優位性を提供する。
- 参考スコア(独自算出の注目度): 0.2333246928962179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Randomly Wired Neural Networks (RWNNs) serve as a valuable testbed for investigating the impact of network topology in deep learning by capturing how different connectivity patterns impact both learning efficiency and model performance. At the same time, they provide a natural framework for exploring edge-centric network measures as tools for pruning and optimization. In this study, we investigate three edge-centric network measures: Forman-Ricci curvature (FRC), Ollivier-Ricci curvature (ORC), and edge betweenness centrality (EBC), to compress RWNNs by selectively retaining important synapses (or edges) while pruning the rest. As a baseline, RWNNs are trained for COVID-19 chest x-ray image classification, aiming to reduce network complexity while preserving performance in terms of accuracy, specificity, and sensitivity. We extend prior work on pruning RWNN using ORC by incorporating two additional edge-centric measures, FRC and EBC, across three network generators: Erd\"{o}s-R\'{e}nyi (ER) model, Watts-Strogatz (WS) model, and Barab\'{a}si-Albert (BA) model. We provide a comparative analysis of the pruning performance of the three measures in terms of compression ratio and theoretical speedup. A central focus of our study is to evaluate whether FRC, which is computationally more efficient than ORC, can achieve comparable pruning effectiveness. Along with performance evaluation, we further investigate the structural properties of the pruned networks through modularity and global efficiency, offering insights into the trade-off between modular segregation and network efficiency in compressed RWNNs. Our results provide initial evidence that FRC-based pruning can effectively simplify RWNNs, offering significant computational advantages while maintaining performance comparable to ORC.
- Abstract(参考訳): Randomly Wired Neural Networks(RWNN)は、ディープラーニングにおけるネットワークトポロジの影響を調べる上で、学習効率とモデルパフォーマンスの両方に異なる接続パターンがどう影響するかをキャプチャすることで、貴重なテストベッドとして機能する。
同時に、プルーニングと最適化のツールとしてエッジ中心のネットワーク測度を探索するための自然なフレームワークも提供する。
本研究では,FRC(Forman-Ricci curvature),Ollivier-Ricci curvature(Ollivier-Ricci curvature),EBC(Edge betweenness centrality)の3つのエッジ中心ネットワーク対策について検討した。
ベースラインとして、RWNNは、精度、特異性、感度の点で性能を保ちながら、ネットワークの複雑さを減らすことを目的として、新型コロナウイルスの胸部X線画像分類のために訓練されている。
本稿では,ERモデル,WSモデル,Barab\'{a}si-Albert(BA)モデルという3つのネットワークジェネレータに,FRCとEBCという2つのエッジ中心の尺度を組み込むことで,ORCを用いたRWNNの刈取作業を拡張する。
圧縮比と理論的スピードアップの3つの尺度の刈り取り性能の比較分析を行った。
本研究の焦点は,ORCよりも計算効率が高いFRCが同等のプルーニング効率を達成できるかどうかを評価することである。
性能評価と合わせて,モジュール性とグローバル効率を両立したネットワークの構造特性について検討し,圧縮RWNNにおけるモジュール分離とネットワーク効率のトレードオフについて考察する。
この結果から, FRC をベースとしたプルーニングが RWNN を効果的に単純化し,ORC に匹敵する性能を維持しつつ,計算上の優位性を向上できることを示す。
関連論文リスト
- Lattice-Based Pruning in Recurrent Neural Networks via Poset Modeling [0.0]
リカレントニューラルネットワーク(RNN)はシーケンスモデリングタスクの中心であるが、その高い計算複雑性はスケーラビリティとリアルタイムデプロイメントの課題を引き起こす。
本稿では,RNNを部分的に順序付けられた集合(命題)としてモデル化し,対応する依存格子を構成する新しいフレームワークを提案する。
既約ニューロンを同定することにより、格子ベースのプルーニングアルゴリズムは、冗長なニューロンを除去しながら、重要な接続を選択的に保持する。
論文 参考訳(メタデータ) (2025-02-23T10:11:38Z) - Make Interval Bound Propagation great again [7.121259735505479]
医療データ分析,自律運転,対人訓練など,実生活に動機づけられたさまざまなシナリオにおいて,我々は,堅牢なディープネットワークに関心を持っている。
本稿では,所定の事前学習ネットワークのロバスト性を計算する方法と,ロバストネットワークの構築方法について述べる。
ニューラルネットワークのラップ効果を軽減するために、厳密な計算に特化した2つの古典的なアプローチを適用する。
論文 参考訳(メタデータ) (2024-10-04T12:39:46Z) - CCSRP: Robust Pruning of Spiking Neural Networks through Cooperative Coevolution [2.5388345537743056]
スパイキングニューラルネットワーク(SNN)は、様々な動的視覚タスクにおいて有望であることを示しているが、現実的なデプロイメントの準備が整ったものは、リソース制限と安全クリティカルな設定に不可欠なコンパクト性と堅牢性を欠いていることが多い。
我々は,協調的共進化を基盤としたSNNの革新的な頑健な刈り取り法であるCSRPを提案する。
論文 参考訳(メタデータ) (2024-07-18T04:28:16Z) - SPP-CNN: An Efficient Framework for Network Robustness Prediction [13.742495880357493]
本稿では,空間ピラミッドプール畳み込みニューラルネットワーク(SPP-CNN)のネットワークロバスト性予測のための効率的なフレームワークを開発する。
新しいフレームワークは、畳み込み層と完全に接続された層の間に空間ピラミッドプーリング層を設置し、CNNベースの予測アプローチにおける一般的なミスマッチ問題を克服する。
論文 参考訳(メタデータ) (2023-05-13T09:09:20Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - CATRO: Channel Pruning via Class-Aware Trace Ratio Optimization [61.71504948770445]
本稿では,CATRO (Class-Aware Trace Ratio Optimization) を用いた新しいチャネルプルーニング手法を提案する。
CATROは、他の最先端チャネルプルーニングアルゴリズムと同等の精度で、同様のコストまたは低コストで高い精度を達成できることを示す。
CATROは、クラス認識の特性のため、様々な分類サブタスクに適応的に効率の良いネットワークを創り出すのに適している。
論文 参考訳(メタデータ) (2021-10-21T06:26:31Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。