論文の概要: Federated Few-Shot Learning on Neuromorphic Hardware: An Empirical Study Across Physical Edge Nodes
- arxiv url: http://arxiv.org/abs/2603.13037v1
- Date: Fri, 13 Mar 2026 14:45:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.132439
- Title: Federated Few-Shot Learning on Neuromorphic Hardware: An Empirical Study Across Physical Edge Nodes
- Title(参考訳): ニューロモルフィックハードウェアにおけるフェデレーションフットショット学習--物理的エッジノード間の実証的研究
- Authors: Steven Motta, Gioele Nanni,
- Abstract要約: On-chip spike-timing-dependent plasticity (STDP) は浮動小数点浮動小数点法よりも二進的に重みを更新する。
我々はBrainChip Akida AKD1000プロセッサを用いた2ノードフェデレーションシステムを構築した。
FedUnionは、要素ワイド平均化(FedAvg)がそれを破壊している間、常に精度を維持する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning on neuromorphic hardware remains unexplored because on-chip spike-timing-dependent plasticity (STDP) produces binary weight updates rather than the floating-point gradients assumed by standard algorithms. We build a two-node federated system with BrainChip Akida AKD1000 processors and run approximately 1,580 experimental trials across seven analysis phases. Of four weight-exchange strategies tested, neuron-level concatenation (FedUnion) consistently preserves accuracy while element-wise weight averaging (FedAvg) destroys it (p = 0.002). Domain-adaptive fine-tuning of the upstream feature extractor accounts for most of the accuracy gains, confirming feature quality as the dominant factor. Scaling feature dimensionality from 64 to 256 yields 77.0% best-strategy federated accuracy (n=30, p < 0.001). Two independent asymmetries (wider features help federation more than individual learning, while binarization hurts federation more) point to a shared prototype complementarity mechanism: cross-node transfer scales with the distinctiveness of neuron prototypes.
- Abstract(参考訳): オンチップスパイクタイピング依存塑性(STDP)は、標準アルゴリズムが仮定する浮動小数点勾配よりも二分重更新を生成するため、ニューロモルフィックハードウェアに関するフェデレートラーニングはいまだに探索されていない。
我々はBrainChip Akida AKD1000プロセッサを用いた2ノードフェデレーションシステムを構築し、7つの分析フェーズで約1,580の実験実験を行った。
テストされた4つの重み交換戦略のうち、ニューロンレベルの連結(FedUnion)は一貫して精度を保ち、要素単位の重み平均化(FedAvg)はそれを破壊する(p = 0.002)。
上流特徴抽出器のドメイン適応的微調整は、ほとんどの精度向上に寄与し、特徴品質が支配的な要因であることを確認した。
特徴次元を64から256に拡大すると77.0%のベストストラテジーフェデレーション精度(n=30, p < 0.001)が得られる。
2つの独立した非対称性(より広い特徴は個々の学習よりもフェデレーションを助長するが、双項化はフェデレーションをより傷付ける)は、共有されたプロトタイプの相補性メカニズムを指している。
関連論文リスト
- Do Generative Metrics Predict YOLO Performance? An Evaluation Across Models, Augmentation Ratios, and Dataset Complexity [43.338311770275745]
本報告では, YOLOv11の合成増強の制御された評価法について述べる。
実際のトレーニングスプリットの10%から150%の増大率に対して, GAN, 拡散, ハイブリッドベースの6つのジェネレータをベンチマークした。
データセット生成/拡張設定毎に、マッチしたサイズのブートストラッププロトコルで事前トレーニングデータセットメトリクスを計算する。
論文 参考訳(メタデータ) (2026-02-20T03:02:36Z) - Federated Transformer-GNN for Privacy-Preserving Brain Tumor Localization with Modality-Level Explainability [0.2683233968306505]
本稿では,脳腫瘍の局所化のための統合学習フレームワークを提案する。
提案手法は,従来のデコーダフリースーパーボクセルGNNから派生したハイブリッドトランスフォーマー-グラフニューラルネットワークアーキテクチャを拡張した。
本稿では,トランスフォーマーのアテンション機構による説明可能性解析を行い,MRIのモーダルティがモデル予測を駆動することを示す。
論文 参考訳(メタデータ) (2026-01-21T14:46:00Z) - Why Registration Quality Matters: Enhancing sCT Synthesis with IMPACT-Based Registration [1.2560645967579729]
我々のモデルは、ResNet-34エンコーダを備えた2.5D U-Net++であり、解剖学的領域間で共同で訓練され、各領域ごとに微調整されている。
ローカルテストセットでは、IMPACTベースの登録は相互情報ベースの登録よりも正確で解剖学的に整合性がある。
論文 参考訳(メタデータ) (2025-10-24T11:40:21Z) - BRIEF: BRain-Inspired network connection search with Extensive temporal feature Fusion enhances disease classification [14.641800350582695]
BRain-Inspired機能Fusion(BRIEF)は自動的にネットワークアーキテクチャを最適化する。
BRIEFは21のアルゴリズムに比べて2.2%から12.1%の大幅な改善を示した。
これは、脳にインスパイアされた強化学習戦略を取り入れて、fMRIベースの精神障害分類を最適化する最初の試みである。
論文 参考訳(メタデータ) (2025-08-15T12:36:03Z) - Improving physics-informed neural network extrapolation via transfer learning and adaptive activation functions [44.44497277876625]
物理情報ニューラルネットワーク(英: Physics-Informed Neural Networks、PINN)は、システムの物理法則を学習プロセスに組み込んだディープラーニングモデルである。
本稿では,PINNの補間性能を向上させるために,転送学習(TL)手法を提案する。
提案手法は, 平均L2誤差を平均40%, 平均絶対誤差を平均50%削減する。
論文 参考訳(メタデータ) (2025-07-16T22:19:53Z) - Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - Multi-scale Quaternion CNN and BiGRU with Cross Self-attention Feature Fusion for Fault Diagnosis of Bearing [5.3598912592106345]
深層学習は断層診断(FD)に著しい進歩をもたらした
マルチスケール畳み込み畳み込みニューラルネットワーク(MQCNN)、双方向ゲートリカレントユニット(BiG)、クロス自己注意機能融合(CSAFF)を統合した新しいFDモデルを提案する。
論文 参考訳(メタデータ) (2024-05-25T07:55:02Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Deep Neural Networks based Meta-Learning for Network Intrusion Detection [0.24466725954625884]
産業の異なるコンポーネントのデジタル化と先住民ネットワーク間の相互接続性は、ネットワーク攻撃のリスクを高めている。
コンピュータネットワークの予測モデルを構築するために使用されるデータには、スキュークラス分布と攻撃型の限定表現がある。
Information Fusion and Stacking Ensemble (INFUSE) という,ネットワーク侵入検出のための新しいディープニューラルネットワークベースのメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-18T18:00:05Z) - Brain Image Synthesis with Unsupervised Multivariate Canonical
CSC$\ell_4$Net [122.8907826672382]
我々は,新しいCSC$ell_4$Netを用いて,イントレとイントラモーダルの両方にまたがる専用特徴を学習することを提案する。
論文 参考訳(メタデータ) (2021-03-22T05:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。