論文の概要: Effective Fine-Tuning with Eigenvector Centrality Based Pruning
- arxiv url: http://arxiv.org/abs/2512.12543v1
- Date: Sun, 14 Dec 2025 04:27:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.304015
- Title: Effective Fine-Tuning with Eigenvector Centrality Based Pruning
- Title(参考訳): 固有ベクトル中心性に基づく効率的な微調整
- Authors: Shaif Chowdhury, Soham Biren Katlariwala, Devleena Kashyap,
- Abstract要約: ソーシャルメディアネットワークでは、少数の影響力のあるユーザーが複数のコミュニティで会話を大規模に変化させることが可能である。
これらのユーザの行動の小さな変化は、ネットワーク全体に広範に伝播するのに十分であることが多い。
本稿では,微調整性能の向上を目的とした,ニューラルネットワークのプルーニングのためのグラフ理論に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In social media networks a small number of highly influential users can drive large scale changes in discourse across multiple communities. Small shifts in the behavior of these users are often sufficient to propagate widely throughout the network. A similar phenomenon occurs during neural network fine tuning. Conventional fine tuning of convolutional neural networks typically adds a new linear classification layer on top of a large pre trained model. Instead we argue that improved adaptation can be achieved by first pruning the network to retain only the most important neurons and then performing fine tuning. We propose a graph theory based method for pruning neural networks that is designed to improve fine tuning performance. In this method each neuron is represented as a node and edges encode similarity between neurons. Neurons are pruned based on importance scores computed using eigenvector centrality. The resulting pruned network is then fine tuned using only the most central neurons. We evaluate the proposed method on VGGNet EfficientNet and ResNet models using the TF Flowers Caltech one zero one and Oxford Flowers one zero two datasets. The proposed approach achieves higher classification accuracy while significantly reducing model complexity. On the Oxford Flowers one zero two dataset the method achieves forty eight percent classification accuracy compared to thirty percent accuracy obtained by the baseline VGGNet model.
- Abstract(参考訳): ソーシャルメディアネットワークでは、少数の影響力のあるユーザーが複数のコミュニティで会話を大規模に変化させることが可能である。
これらのユーザの行動の小さな変化は、ネットワーク全体に広範に伝播するのに十分であることが多い。
同様の現象は、ニューラルネットワークの微調整中に起こる。
畳み込みニューラルネットワークの従来の微調整は、通常、大きな事前訓練されたモデルの上に新しい線形分類層を追加する。
代わりに、改良された適応は、まずネットワークを刈り上げ、最も重要なニューロンのみを保持し、それから微調整を行うことによって達成できる、と論じる。
本稿では,微調整性能の向上を目的とした,ニューラルネットワークのプルーニングのためのグラフ理論に基づく手法を提案する。
この方法では、各ニューロンはノードとして表現され、エッジはニューロン間の類似性を符号化する。
ニューロンは固有ベクトル中心性を用いて計算された重要度に基づいて切断される。
得られた切断されたネットワークは、最も中心的なニューロンのみを使用して微調整される。
TF Flowers Caltech 1 と Oxford Flowers 1 を用いて VGGNet EfficientNet モデルと ResNet モデルの評価を行った。
提案手法は,モデルの複雑性を著しく低減しつつ,より高い分類精度を実現する。
オックスフォード・フラワーズでは、ベースラインのVGGNetモデルで得られた30%の精度と比較して分類精度が48%に達する。
関連論文リスト
- EntryPrune: Neural Network Feature Selection using First Impressions [18.19175363343452]
EntryPruneは、動的スパース入力層を持つ高密度ニューラルネットワークを用いた、新しい教師付き特徴選択アルゴリズムである。
エントリベースのプルーニングは、ネットワークに入ると引き起こされる相対的な変化に基づいてニューロンを比較する新しいアプローチである。
論文 参考訳(メタデータ) (2024-10-03T09:56:39Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - An Initialization Schema for Neuronal Networks on Tabular Data [0.9155684383461983]
本稿では,二項ニューラルネットワークが表データに対して有効に利用できることを示す。
提案手法はニューラルネットワークの最初の隠蔽層を初期化するための単純だが効果的なアプローチを示す。
我々は、複数の公開データセットに対する我々のアプローチを評価し、他のニューラルネットワークベースのアプローチと比較して、改善されたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-11-07T13:52:35Z) - Wide and Deep Neural Networks Achieve Optimality for Classification [23.738242876364865]
我々は、最適性を達成するニューラルネットワーク分類器の明示的な集合を同定し、構築する。
特に、最適性を実現するネットワーク構築に使用できる明示的なアクティベーション関数を提供する。
その結果,過度な深度が有害な回帰タスクとは対照的に,分類タスクにディープネットワークを使用することの利点が浮き彫りになった。
論文 参考訳(メタデータ) (2022-04-29T14:27:42Z) - Neural Network Pruning Through Constrained Reinforcement Learning [3.2880869992413246]
本稿では,ニューラルネットワークを解析するための一般的な手法を提案する。
提案手法は、事前に定義された計算予算を尊重するためにニューラルネットワークを創出することができる。
標準画像分類データセットにおける最先端手法との比較により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-16T11:57:38Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - To Boost or not to Boost: On the Limits of Boosted Neural Networks [67.67776094785363]
ブースティングは分類器のアンサンブルを学ぶ方法である。
ブースティングは決定木に非常に有効であることが示されているが、ニューラルネットワークへの影響は広く研究されていない。
単一のニューラルネットワークは通常、同じ数のパラメータを持つ小さなニューラルネットワークの強化されたアンサンブルよりもよく一般化される。
論文 参考訳(メタデータ) (2021-07-28T19:10:03Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。