論文の概要: Forward-Forward Autoencoder Architectures for Energy-Efficient Wireless Communications
- arxiv url: http://arxiv.org/abs/2510.11418v1
- Date: Mon, 13 Oct 2025 13:54:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.390057
- Title: Forward-Forward Autoencoder Architectures for Energy-Efficient Wireless Communications
- Title(参考訳): エネルギー効率の良い無線通信のためのフォワードフォワードオートエンコーダアーキテクチャ
- Authors: Daniel Seifert, Onur Günlü, Rafael F. Schaefer,
- Abstract要約: フォワードフォワード(FF)学習は、バックプロパゲーション(BP)アルゴリズムの効率的な代替手段である。
そのいくつかの利点の中で、FF学習は通信チャネルの差別化を必要としない。
付加的な白色ガウス雑音とレイリーブロック消音チャネルに対するそれらの性能を数値的に評価する。
- 参考スコア(独自算出の注目度): 18.181336872549124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The application of deep learning to the area of communications systems has been a growing field of interest in recent years. Forward-forward (FF) learning is an efficient alternative to the backpropagation (BP) algorithm, which is the typically used training procedure for neural networks. Among its several advantages, FF learning does not require the communication channel to be differentiable and does not rely on the global availability of partial derivatives, allowing for an energy-efficient implementation. In this work, we design end-to-end learned autoencoders using the FF algorithm and numerically evaluate their performance for the additive white Gaussian noise and Rayleigh block fading channels. We demonstrate their competitiveness with BP-trained systems in the case of joint coding and modulation, and in a scenario where a fixed, non-differentiable modulation stage is applied. Moreover, we provide further insights into the design principles of the FF network, its training convergence behavior, and significant memory and processing time savings compared to BP-based approaches.
- Abstract(参考訳): 近年,コミュニケーションシステム分野への深層学習の応用が注目されている。
フォワードフォワード(FF)学習は、ニューラルネットワークの典型的な訓練手順であるバックプロパゲーション(BP)アルゴリズムの効率的な代替手段である。
そのいくつかの利点の中で、FF学習は通信チャネルを微分可能とせず、偏微分のグローバルな利用に頼らず、エネルギー効率のよい実装を可能にしている。
本研究では、FFアルゴリズムを用いてエンドツーエンドの学習オートエンコーダを設計し、付加的な白色ガウス雑音とレイリーブロック消音チャネルの性能を数値的に評価する。
我々は, BP学習システムとの競争性を, 共同符号化や変調の場合にも示し, 固定された非微分可能変調の段階を適用した場合にも示す。
さらに,FFネットワークの設計原理,トレーニングコンバージェンス動作,およびBPベースのアプローチと比較してメモリと処理時間の大幅な削減について,さらなる知見を提供する。
関連論文リスト
- Self-Contrastive Forward-Forward Algorithm [3.1361717406527667]
フォワードフォワード (FF) アルゴリズムは、レイヤーワイドの目的を最適化するためにフィードフォワード演算に依存する。
FFは、ほとんどの標準ベンチマークタスクで最先端のパフォーマンスに到達できなかった。
本稿では,この性能ギャップを解消するための競争訓練手法である,自己コントラストフォワード(SCFF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-17T22:58:20Z) - Going Forward-Forward in Distributed Deep Learning [0.0]
本稿では,Geoffrey Hinton の Forward-Forward (FF) アルゴリズムを用いた分散ディープラーニングにおける新しい手法を提案する。
フォワードパスとバックパスに依存する従来の手法とは異なり、FFアルゴリズムはデュアルフォワードパス戦略を採用している。
評価の結果,4つの計算ノードを持つ4層ネットワークのトレーニングにおいて,MNISTデータセットの3.75倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-03-30T16:02:53Z) - Convolutional Channel-wise Competitive Learning for the Forward-Forward
Algorithm [5.1246638322893245]
深層ニューラルネットワークのトレーニングに一般的に使用されるバックプロパゲーション(BP)の問題を軽減するために,フォワードフォワード(FF)アルゴリズムが提案されている。
我々は、画像分類タスクにおける畳み込みニューラルネットワークの文脈において、チャネルワイズ競争学習を活用することにより、FFの主な考え方を取り入れ、それらを改善する。
MNIST, Fashion-MNIST, CIFAR-10, CIFAR-100の試験誤差は0.58%, 7.69%, 21.89%, 48.77%であった。
論文 参考訳(メタデータ) (2023-12-19T23:48:43Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。