論文の概要: Component-Aware Pruning Framework for Neural Network Controllers via Gradient-Based Importance Estimation
- arxiv url: http://arxiv.org/abs/2601.19794v1
- Date: Tue, 27 Jan 2026 16:53:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.407623
- Title: Component-Aware Pruning Framework for Neural Network Controllers via Gradient-Based Importance Estimation
- Title(参考訳): グラディエント・ベース・インパタンス推定によるニューラルネットワーク制御のためのコンポーネント・アウェア・プルーニング・フレームワーク
- Authors: Ganesh Sundaram, Jonas Ulmen, Daniel Görges,
- Abstract要約: 本稿では、勾配情報を利用してトレーニング中の3つの重要な指標を計算する、コンポーネント対応プルーニングフレームワークを提案する。
オートエンコーダとTDMPCエージェントによる実験結果から,提案フレームワークは重要な構造的依存関係と動的シフトを重要視することを示した。
- 参考スコア(独自算出の注目度): 0.34410212782758043
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The transition from monolithic to multi-component neural architectures in advanced neural network controllers poses substantial challenges due to the high computational complexity of the latter. Conventional model compression techniques for complexity reduction, such as structured pruning based on norm-based metrics to estimate the relative importance of distinct parameter groups, often fail to capture functional significance. This paper introduces a component-aware pruning framework that utilizes gradient information to compute three distinct importance metrics during training: Gradient Accumulation, Fisher Information, and Bayesian Uncertainty. Experimental results with an autoencoder and a TD-MPC agent demonstrate that the proposed framework reveals critical structural dependencies and dynamic shifts in importance that static heuristics often miss, supporting more informed compression decisions.
- Abstract(参考訳): 先進的なニューラルネットワークコントローラにおけるモノリシックから多成分ニューラルネットワークアーキテクチャへの移行は、後者の計算複雑性が高いために大きな課題となる。
異なるパラメータ群の相対的重要性を推定するために、ノルムベースのメトリクスに基づく構造化プルーニングのような、複雑性の低減のための従来のモデル圧縮技術は、しばしば機能的重要性を捉えることに失敗する。
本稿では,勾配情報を利用してトレーニング中の3つの重要な指標(勾配蓄積,フィッシャー情報,ベイジアン不確実性)を計算する,コンポーネント対応プルーニングフレームワークを提案する。
オートエンコーダとTD-MPCエージェントによる実験結果から,静的ヒューリスティックがしばしば見逃す重要な構造的依存関係と動的シフトが明らかとなり,より情報的な圧縮決定が支持された。
関連論文リスト
- Systematic Characterization of Minimal Deep Learning Architectures: A Unified Analysis of Convergence, Pruning, and Quantization [6.49583548940407]
ディープラーニングネットワークは分類が優れているが、タスクを確実に解決する最小限のアーキテクチャを特定することは依然として難しい。
本稿では,コンバージェンス,プルーニング,量子化の関係を探索し,解析するための計算手法を提案する。
私たちの最初の結果は、アーキテクチャの多様性にもかかわらず、パフォーマンスはほとんど不変であり、学習力学は、不安定、学習、過剰適合の3つの条件を一貫して示していることを示している。
論文 参考訳(メタデータ) (2026-01-25T20:31:10Z) - Benchmarking neural surrogates on realistic spatiotemporal multiphysics flows [18.240532888032394]
我々は、困難でアプリケーション駆動のリアクティブフローでニューラルネットワークサロゲートをテストするために設計された厳格なベンチマークフレームワークであるREALM(Realistic AI Learning for Multiphysics)を提案する。
我々は、スペクトル演算子、畳み込みモデル、トランスフォーマー、ポイントワイド演算子、グラフ/メッシュネットワークを含む、12以上の代表代理モデルファミリをベンチマークする。
i)次元性、剛性、メッシュの不規則性によって共同で管理されるスケーリング障壁により、ロールアウトエラーが急速に増加すること、(ii)パラメータカウントよりもアーキテクチャ上の帰納バイアスによって主に制御されるパフォーマンス、(iii)精度の指標と物理的にの間にある永続的なギャップ、の3つの頑健な傾向を識別する。
論文 参考訳(メタデータ) (2025-12-21T05:04:13Z) - Meta-cognitive Multi-scale Hierarchical Reasoning for Motor Imagery Decoding [43.32839547082765]
本研究では,4クラス脳波(EEG)信号の階層的,メタ認知的デコードフレームワークについて検討する。
バックボーンの特徴を時間的マルチスケール表現に再構成するマルチスケール階層型信号処理モジュールを提案する。
我々は,このフレームワークを3つの標準脳波バックボーン上でインスタンス化し,BCIコンペティションIV-2aデータセットを用いて4クラスMIデコーディングを評価する。
論文 参考訳(メタデータ) (2025-11-11T06:32:23Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Explicit modelling of subject dependency in BCI decoding [12.17288254938554]
Brain-Computer Interfaces (BCI) は、高いオブジェクト間の変動とラベル付きデータに悩まされる。
被験者の身元を条件とした軽量畳み込みニューラルネットワーク(CNN)を用いて、対象の依存関係を明示的にモデル化するエンド・ツー・エンドのアプローチを提案する。
論文 参考訳(メタデータ) (2025-09-27T10:51:42Z) - Model Hemorrhage and the Robustness Limits of Large Language Models [119.46442117681147]
大規模言語モデル(LLM)は、自然言語処理タスク全体で強力なパフォーマンスを示すが、デプロイメント用に修正された場合、大幅なパフォーマンス低下を経験する。
この現象をモデル出血(パラメータ変更とアーキテクチャ変更によるパフォーマンス低下)と定義する。
論文 参考訳(メタデータ) (2025-03-31T10:16:03Z) - Interpretable Feature Interaction via Statistical Self-supervised Learning on Tabular Data [22.20955211690874]
Spofeは、統計的厳密さによる明確な解釈可能性を達成するために、原則化された表現をキャプチャする、新しい自己教師型機械学習パイプラインである。
このアプローチの基盤となるのは、正確なエラー境界と厳密な偽発見率(FDR)制御を提供する、堅牢な理論フレームワークです。
さまざまな実世界のデータセットの実験は、Spotfeの有効性を実証している。
論文 参考訳(メタデータ) (2025-03-23T12:27:42Z) - Parameter-Efficient Fine-Tuning for Continual Learning: A Neural Tangent Kernel Perspective [125.00228936051657]
本稿では,タスク関連機能を適応的に生成しながら,タスク固有のパラメータ記憶を不要にする新しいフレームワークNTK-CLを紹介する。
最適化可能なパラメータを適切な正規化で微調整することにより、NTK-CLは確立されたPEFT-CLベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-24T09:30:04Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。