論文の概要: Switch-Based Multi-Part Neural Network
- arxiv url: http://arxiv.org/abs/2504.18241v1
- Date: Fri, 25 Apr 2025 10:39:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.741223
- Title: Switch-Based Multi-Part Neural Network
- Title(参考訳): スイッチベース多部ニューラルネットワーク
- Authors: Surajit Majumder, Paritosh Ranjan, Prodip Roy, Bhuban Padhan,
- Abstract要約: AIシステムのスケーラビリティ、解釈可能性、パフォーマンスを向上させるために設計された、分散的でモジュール化されたニューラルネットワークフレームワーク。
この枠組みの中心には、個々のニューロンの選択的活性化と訓練を管理する動的スイッチ機構がある。
- 参考スコア(独自算出の注目度): 0.15749416770494706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces decentralized and modular neural network framework designed to enhance the scalability, interpretability, and performance of artificial intelligence (AI) systems. At the heart of this framework is a dynamic switch mechanism that governs the selective activation and training of individual neurons based on input characteristics, allowing neurons to specialize in distinct segments of the data domain. This approach enables neurons to learn from disjoint subsets of data, mimicking biological brain function by promoting task specialization and improving the interpretability of neural network behavior. Furthermore, the paper explores the application of federated learning and decentralized training for real-world AI deployments, particularly in edge computing and distributed environments. By simulating localized training on non-overlapping data subsets, we demonstrate how modular networks can be efficiently trained and evaluated. The proposed framework also addresses scalability, enabling AI systems to handle large datasets and distributed processing while preserving model transparency and interpretability. Finally, we discuss the potential of this approach in advancing the design of scalable, privacy-preserving, and efficient AI systems for diverse applications.
- Abstract(参考訳): 本稿では,人工知能(AI)システムのスケーラビリティ,解釈可能性,性能を向上させるために設計された分散型およびモジュール型ニューラルネットワークフレームワークを提案する。
このフレームワークの中心には動的スイッチ機構があり、入力特性に基づいて個々のニューロンの選択的活性化と訓練を制御し、ニューロンがデータ領域の異なるセグメントを専門化することができる。
このアプローチにより、ニューロンはデータの解離部分集合から学習し、タスクの専門化を促進し、ニューラルネットワークの振る舞いの解釈可能性を向上させることによって、生物学的脳機能の模倣を行うことができる。
さらに,実世界のAIデプロイメント,特にエッジコンピューティングと分散環境におけるフェデレーション学習と分散トレーニングの適用について検討する。
非重複データサブセットの局所的トレーニングをシミュレートすることにより、モジュールネットワークを効率的にトレーニングし、評価する方法を実証する。
提案されたフレームワークはスケーラビリティにも対処し、モデル透明性と解釈可能性を維持しながら、AIシステムが大規模なデータセットと分散処理を処理できるようにする。
最後に,多様なアプリケーションを対象としたスケーラブルでプライバシ保護,効率的なAIシステムの設計を進める上で,このアプローチの可能性について論じる。
関連論文リスト
- Neural network interpretability with layer-wise relevance propagation: novel techniques for neuron selection and visualization [0.49478969093606673]
本稿では,選択したニューロンのパーシングを改善する新しいアプローチを提案する。
Visual Geometry Group 16 (VGG16) アーキテクチャをケーススタディとして用いたLRP後方伝播
本手法は、コンピュータビジョンアプリケーションのための、より透明な人工知能(AI)システムの開発を支援する。
論文 参考訳(メタデータ) (2024-12-07T15:49:14Z) - Peer-to-Peer Learning Dynamics of Wide Neural Networks [10.179711440042123]
本稿では,分散勾配降下法(DGD)アルゴリズムを用いて学習した広範ニューラルネットワークの学習力学を明示的に評価する。
この結果は,最近のニューラルネットワークカーネル(NTK)理論と,分散学習とコンセンサスタスクに関する広範な研究の両面を生かしている。
論文 参考訳(メタデータ) (2024-09-23T17:57:58Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Initialisation and Network Effects in Decentralised Federated Learning [1.5961625979922607]
分散フェデレーション学習は、通信デバイスの分散ネットワーク上で、個々の機械学習モデルの協調トレーニングを可能にする。
このアプローチは、集中的な調整を避け、データのプライバシを高め、単一障害点のリスクを取り除く。
本稿では,基盤となる通信ネットワークの固有ベクトル集中度分布に基づく,ニューラルネットワークの非協調初期化戦略を提案する。
論文 参考訳(メタデータ) (2024-03-23T14:24:36Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - A Transition System Abstraction Framework for Neural Network Dynamical
System Models [2.414910571475855]
本稿では,ニューラルネットワーク力学系モデルのためのトランジションシステム抽象化フレームワークを提案する。
このフレームワークは、データ駆動型ニューラルネットワークモデルをトランジションシステムに抽象化し、ニューラルネットワークモデルを解釈可能にする。
論文 参考訳(メタデータ) (2024-02-18T23:49:18Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - AI Centered on Scene Fitting and Dynamic Cognitive Network [4.228224431041357]
より強力な人工知能を実現するためには、エンドツーエンドの関数計算を変更する必要がある。
また、動的認知ネットワークモデル(DCNet)と呼ばれる具体的なスキームについても論じている。
論文 参考訳(メタデータ) (2020-10-02T06:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。