論文の概要: Gradient-Based Neuroplastic Adaptation for Concurrent Optimization of Neuro-Fuzzy Networks
- arxiv url: http://arxiv.org/abs/2506.21771v1
- Date: Thu, 26 Jun 2025 21:08:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.013474
- Title: Gradient-Based Neuroplastic Adaptation for Concurrent Optimization of Neuro-Fuzzy Networks
- Title(参考訳): ニューロファジィネットワークの同時最適化のためのグラディエントベースニューロプラスティック適応
- Authors: John Wesley Hostetter, Min Chi,
- Abstract要約: ニューロファジィネットワーク(Neuro-fuzzy Network, NFN)は、従来のニューラルアーキテクチャと同様に機能する、透過的で象徴的な普遍関数近似である。
我々はNFNの並列パラメータと構造に対する神経可塑性適応と呼ばれる応用非依存的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 7.811459544911894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuro-fuzzy networks (NFNs) are transparent, symbolic, and universal function approximations that perform as well as conventional neural architectures, but their knowledge is expressed as linguistic IF-THEN rules. Despite these advantages, their systematic design process remains a challenge. Existing work will often sequentially build NFNs by inefficiently isolating parametric and structural identification, leading to a premature commitment to brittle and subpar architecture. We propose a novel application-independent approach called gradient-based neuroplastic adaptation for the concurrent optimization of NFNs' parameters and structure. By recognizing that NFNs' parameters and structure should be optimized simultaneously as they are deeply conjoined, settings previously unapproachable for NFNs are now accessible, such as the online reinforcement learning of NFNs for vision-based tasks. The effectiveness of concurrently optimizing NFNs is empirically shown as it is trained by online reinforcement learning to proficiently play challenging scenarios from a vision-based video game called DOOM.
- Abstract(参考訳): ニューロファジィネットワーク(NFN)は、従来のニューラルアーキテクチャと同様に機能する透明で象徴的で普遍的な関数近似であるが、その知識は言語IF-THEN規則として表現される。
これらの利点にもかかわらず、その体系的な設計プロセスは依然として課題である。
既存の作業は、パラメトリックと構造的識別を非効率に分離することで、しばしばNFNを順次構築し、不安定でサブパーアーキテクチャへの早期のコミットメントをもたらす。
本研究では,NFNsのパラメータと構造を同時に最適化するための勾配型神経可塑性適応法を提案する。
NFNsのパラメータと構造が深く結合しているように同時に最適化されるべきであることを認識することで、NFNsのオンライン強化学習など、これまで適用できなかったNFNsの設定がアクセスできるようになった。
NFNを同時に最適化する効果は、オンライン強化学習によって訓練され、DOOMと呼ばれるビジョンベースのビデオゲームから挑戦的なシナリオを巧みにプレイするために実証的に示される。
関連論文リスト
- Equivariant Polynomial Functional Networks [2.3963215252605172]
ニューラルネットワーク(NFN)の鍵となる設計原理は、入力ニューラルネットワークの接続構造に固有の置換とスケーリングの対称性に固執することである。
近年のNFNは、グラフベースのメッセージパッシング機構またはパラメータ共有機構に基づいて、置換とスケーリングの等式が提案されている。
MAG-NFN(Monomial mAtrix Group Equivariant Polynomial NFN)の開発を目的とした新しい解法を提案する。
論文 参考訳(メタデータ) (2024-10-05T16:10:19Z) - Advancing Spatio-Temporal Processing in Spiking Neural Networks through Adaptation [6.233189707488025]
ニューロモルフィックハードウェア上のニューラルネットワークは、非喫煙者よりも消費電力の少ないオーダーを約束する。
このようなシステム上でのスパイクベースの計算のための標準的なニューロンモデルは、長い間、統合と火災(LIF)ニューロンであった。
いわゆるアダプティブLIFニューロンの根源はよく分かっていない。
論文 参考訳(メタデータ) (2024-08-14T12:49:58Z) - Neural Parameter Regression for Explicit Representations of PDE Solution Operators [22.355460388065964]
偏微分方程式(PDE)の解演算子を学習するための新しいフレームワークであるニューラル回帰(NPR)を導入する。
NPRは、ニューラルネットワーク(NN)パラメータを回帰するために、Physics-Informed Neural Network (PINN, Raissi et al., 2021) 技術を使用している。
このフレームワークは、新しい初期条件と境界条件に顕著な適応性を示し、高速な微調整と推論を可能にした。
論文 参考訳(メタデータ) (2024-03-19T14:30:56Z) - N-Adaptive Ritz Method: A Neural Network Enriched Partition of Unity for
Boundary Value Problems [1.2200609701777907]
本研究は,ニューラルネットワークによる境界値問題を解決するために,ニューラルネットワークに富んだユニティ分割(NN-PU)アプローチを導入する。
NNエンリッチメントは、事前訓練された特徴符号化NNブロックと未訓練NNブロックを組み合わせることで構成される。
提案手法は,従来のメッシュ法に比べて計算コストを低減しつつ,正確な解を提供する。
論文 参考訳(メタデータ) (2024-01-16T18:11:14Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Learning to Control Rapidly Changing Synaptic Connections: An
Alternative Type of Memory in Sequence Processing Artificial Neural Networks [9.605853974038936]
フィードフォワードNNをそのようなRNNに一般化することは数学的に単純で自然であり、歴史的でさえある。
短期記憶を「シナプス接続」に格納するという、あまり知られていない代替手法は、シーケンス処理NNにおいて別の「自然な」短期記憶をもたらす。
Fast Weight Programmers (FWPs) は近年、汎用シーケンスプロセッサとして復活し、様々なタスクで競合する性能を実現している。
論文 参考訳(メタデータ) (2022-11-17T10:03:54Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。