論文の概要: Effective Fine-Tuning with Eigenvector Centrality Based Pruning
- arxiv url: http://arxiv.org/abs/2512.12543v1
- Date: Sun, 14 Dec 2025 04:27:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.304015
- Title: Effective Fine-Tuning with Eigenvector Centrality Based Pruning
- Title(参考訳): 固有ベクトル中心性に基づく効率的な微調整
- Authors: Shaif Chowdhury, Soham Biren Katlariwala, Devleena Kashyap,
- Abstract要約: ソーシャルメディアネットワークでは、少数の影響力のあるユーザーが複数のコミュニティで会話を大規模に変化させることが可能である。
これらのユーザの行動の小さな変化は、ネットワーク全体に広範に伝播するのに十分であることが多い。
本稿では,微調整性能の向上を目的とした,ニューラルネットワークのプルーニングのためのグラフ理論に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In social media networks a small number of highly influential users can drive large scale changes in discourse across multiple communities. Small shifts in the behavior of these users are often sufficient to propagate widely throughout the network. A similar phenomenon occurs during neural network fine tuning. Conventional fine tuning of convolutional neural networks typically adds a new linear classification layer on top of a large pre trained model. Instead we argue that improved adaptation can be achieved by first pruning the network to retain only the most important neurons and then performing fine tuning. We propose a graph theory based method for pruning neural networks that is designed to improve fine tuning performance. In this method each neuron is represented as a node and edges encode similarity between neurons. Neurons are pruned based on importance scores computed using eigenvector centrality. The resulting pruned network is then fine tuned using only the most central neurons. We evaluate the proposed method on VGGNet EfficientNet and ResNet models using the TF Flowers Caltech one zero one and Oxford Flowers one zero two datasets. The proposed approach achieves higher classification accuracy while significantly reducing model complexity. On the Oxford Flowers one zero two dataset the method achieves forty eight percent classification accuracy compared to thirty percent accuracy obtained by the baseline VGGNet model.
- Abstract(参考訳): ソーシャルメディアネットワークでは、少数の影響力のあるユーザーが複数のコミュニティで会話を大規模に変化させることが可能である。
これらのユーザの行動の小さな変化は、ネットワーク全体に広範に伝播するのに十分であることが多い。
同様の現象は、ニューラルネットワークの微調整中に起こる。
畳み込みニューラルネットワークの従来の微調整は、通常、大きな事前訓練されたモデルの上に新しい線形分類層を追加する。
代わりに、改良された適応は、まずネットワークを刈り上げ、最も重要なニューロンのみを保持し、それから微調整を行うことによって達成できる、と論じる。
本稿では,微調整性能の向上を目的とした,ニューラルネットワークのプルーニングのためのグラフ理論に基づく手法を提案する。
この方法では、各ニューロンはノードとして表現され、エッジはニューロン間の類似性を符号化する。
ニューロンは固有ベクトル中心性を用いて計算された重要度に基づいて切断される。
得られた切断されたネットワークは、最も中心的なニューロンのみを使用して微調整される。
TF Flowers Caltech 1 と Oxford Flowers 1 を用いて VGGNet EfficientNet モデルと ResNet モデルの評価を行った。
提案手法は,モデルの複雑性を著しく低減しつつ,より高い分類精度を実現する。
オックスフォード・フラワーズでは、ベースラインのVGGNetモデルで得られた30%の精度と比較して分類精度が48%に達する。
関連論文リスト
- V-EfficientNets: Vector-Valued Efficiently Scaled Convolutional Neural Network Models [0.4143603294943439]
V-EfficientNetsは任意のベクトル値データを処理するように設計されたEfficientNetの新たな拡張である。
提案手法は医用画像分類タスクで評価され,平均精度は99.46%である。
V-EfficientNetsは優れた効率を示し、パラメータを著しく削減し、最先端モデルより優れている。
論文 参考訳(メタデータ) (2025-05-08T21:35:35Z) - EntryPrune: Neural Network Feature Selection using First Impressions [18.19175363343452]
EntryPruneは、動的スパース入力層を持つ高密度ニューラルネットワークを用いた、新しい教師付き特徴選択アルゴリズムである。
エントリベースのプルーニングは、ネットワークに入ると引き起こされる相対的な変化に基づいてニューロンを比較する新しいアプローチである。
論文 参考訳(メタデータ) (2024-10-03T09:56:39Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Using Cooperative Game Theory to Prune Neural Networks [7.3959659158152355]
本稿では,協調ゲーム理論の解の概念を用いて,ニューラルネットワークの刈り取り問題に対処する方法について述べる。
本稿では,GTAP(Game Theory Assisted Pruning)と呼ばれる,予測精度を維持しつつ,ニューラルネットワークのサイズを小さくする手法を提案する。
論文 参考訳(メタデータ) (2023-11-17T11:48:10Z) - An Initialization Schema for Neuronal Networks on Tabular Data [0.9155684383461983]
本稿では,二項ニューラルネットワークが表データに対して有効に利用できることを示す。
提案手法はニューラルネットワークの最初の隠蔽層を初期化するための単純だが効果的なアプローチを示す。
我々は、複数の公開データセットに対する我々のアプローチを評価し、他のニューラルネットワークベースのアプローチと比較して、改善されたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-11-07T13:52:35Z) - Wide and Deep Neural Networks Achieve Optimality for Classification [23.738242876364865]
我々は、最適性を達成するニューラルネットワーク分類器の明示的な集合を同定し、構築する。
特に、最適性を実現するネットワーク構築に使用できる明示的なアクティベーション関数を提供する。
その結果,過度な深度が有害な回帰タスクとは対照的に,分類タスクにディープネットワークを使用することの利点が浮き彫りになった。
論文 参考訳(メタデータ) (2022-04-29T14:27:42Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Neural Network Pruning Through Constrained Reinforcement Learning [3.2880869992413246]
本稿では,ニューラルネットワークを解析するための一般的な手法を提案する。
提案手法は、事前に定義された計算予算を尊重するためにニューラルネットワークを創出することができる。
標準画像分類データセットにおける最先端手法との比較により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-16T11:57:38Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - To Boost or not to Boost: On the Limits of Boosted Neural Networks [67.67776094785363]
ブースティングは分類器のアンサンブルを学ぶ方法である。
ブースティングは決定木に非常に有効であることが示されているが、ニューラルネットワークへの影響は広く研究されていない。
単一のニューラルネットワークは通常、同じ数のパラメータを持つ小さなニューラルネットワークの強化されたアンサンブルよりもよく一般化される。
論文 参考訳(メタデータ) (2021-07-28T19:10:03Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。