論文の概要: Interference Cancellation GAN Framework for Dynamic Channels
- arxiv url: http://arxiv.org/abs/2208.08019v1
- Date: Wed, 17 Aug 2022 02:01:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:27:09.390587
- Title: Interference Cancellation GAN Framework for Dynamic Channels
- Title(参考訳): 動的チャネルのための干渉キャンセルganフレームワーク
- Authors: Hung T. Nguyen, Steven Bottone, Kwang Taik Kim, Mung Chiang, H.
Vincent Poor
- Abstract要約: チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 74.22393885274728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbol detection is a fundamental and challenging problem in modern
communication systems, e.g., multiuser multiple-input multiple-output (MIMO)
setting. Iterative Soft Interference Cancellation (SIC) is a state-of-the-art
method for this task and recently motivated data-driven neural network models,
e.g. DeepSIC, that can deal with unknown non-linear channels. However, these
neural network models require thorough timeconsuming training of the networks
before applying, and is thus not readily suitable for highly dynamic channels
in practice. We introduce an online training framework that can swiftly adapt
to any changes in the channel. Our proposed framework unifies the recent deep
unfolding approaches with the emerging generative adversarial networks (GANs)
to capture any changes in the channel and quickly adjust the networks to
maintain the top performance of the model. We demonstrate that our framework
significantly outperforms recent neural network models on highly dynamic
channels and even surpasses those on the static channel in our experiments.
- Abstract(参考訳): シンボル検出は、例えばマルチユーザマルチインプットマルチアウトプット(MIMO)の設定など、現代の通信システムにおける基本的な問題である。
反復型ソフト干渉キャンセル(sic)は、このタスクの最先端手法であり、最近、未知の非線形チャネルを扱うデータ駆動ニューラルネットワークモデル(deepsicなど)を動機付けている。
しかし、これらのニューラルネットワークモデルは、適用前にネットワークの徹底した時間を要するため、実際には高ダイナミックなチャネルには適さない。
チャネルのあらゆる変更に迅速に適応できるオンライントレーニングフレームワークを導入します。
提案するフレームワークは,最近登場したgenerative adversarial network (gans) を用いて,チャネル内の任意の変更をキャプチャし,モデルの最高性能を維持するためにネットワークを迅速に調整する。
実験では,我々のフレームワークが,最近のニューラルネットワークモデルを高度にダイナミックなチャネルで大幅に上回り,静的チャネル上でも上回ることを実証した。
関連論文リスト
- Modeling of Time-varying Wireless Communication Channel with Fading and Shadowing [0.0]
本稿では,ディープラーニングニューラルネットワークと混合密度ネットワークモデルを組み合わせて,受信電力の条件付き確率密度関数を導出する手法を提案する。
経路損失とノイズを伴う中上フェーディングチャネルモデルと対数正規シャドーイングチャネルモデルの実験により、新しいアプローチは従来のディープラーニングベースチャネルモデルよりも統計的に正確で、高速で、より堅牢であることが示された。
論文 参考訳(メタデータ) (2024-05-13T21:30:50Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Achieving Robust Generalization for Wireless Channel Estimation Neural
Networks by Designed Training Data [1.0499453838486013]
本稿では,トレーニングされたニューラルネットワークを未知のチャネルに堅牢な一般化を支援するためのトレーニングデータの設計手法を提案する。
これはメモリと処理集約的なソリューションであるため、これまで見つからなかったチャネルに対するオンライントレーニングの要件を回避する。
シミュレーションの結果、トレーニングされたニューラルネットワークは、目に見えないチャネルでほぼ同じ性能を維持していることがわかった。
論文 参考訳(メタデータ) (2023-02-05T04:53:07Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Dynamic Slimmable Denoising Network [64.77565006158895]
DDSNet(Dynamic Slimmable Denoising Network)は、計算量が少なくて優れたDenoising品質を実現するための一般的な手法である。
OurNetには動的ゲートによる動的推論の能力が備わっている。
我々の実験は、最先端の個別に訓練された静的 denoising ネットワークよりも一貫して優れています。
論文 参考訳(メタデータ) (2021-10-17T22:45:33Z) - End-to-end learnable EEG channel selection with deep neural networks [72.21556656008156]
本稿では,脳波チャネル選択をニューラルネットワーク自体に組み込む枠組みを提案する。
我々は、離散チャネル選択パラメータの連続緩和を用いて、この新しい最適化問題の離散的性質を扱う。
この一般的なアプローチは、2つの異なるEEGタスクで評価される。
論文 参考訳(メタデータ) (2021-02-11T13:44:07Z) - Deep Neural Networks using a Single Neuron: Folded-in-Time Architecture
using Feedback-Modulated Delay Loops [0.0]
本稿では、任意の大きさのディープニューラルネットワークを、複数の時間遅延フィードバックループを持つ単一ニューロンに折り畳む方法を提案する。
本発明の単一ニューロン深部ニューラルネットワークは、単一の非線形性のみを含み、フィードバック信号の調整を適切に調整する。
Folded-in-time DNN(Fit-DNN)と呼ばれる新しい手法は、ベンチマークタスクのセットで有望な性能を示す。
論文 参考訳(メタデータ) (2020-11-19T21:45:58Z) - Learning to Prune in Training via Dynamic Channel Propagation [7.974413827589133]
我々は「動的チャネル伝搬」と呼ばれる新しいネットワーク学習機構を提案する。
各畳み込み層内の特定のチャネル群を抽出し、トレーニング時間内に前方伝播に参加する。
トレーニングが終了すると、ユーティリティ値の高いチャネルは保持され、ユーティリティ値の低いチャネルは破棄される。
論文 参考訳(メタデータ) (2020-07-03T04:02:41Z) - The FaceChannel: A Light-weight Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
FER自動化のための現在の最先端モデルは、訓練が難しい非常に深いニューラルネットワークに基づいている。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
私たちは、FaceChannelが、FERの現在の最先端技術と比較して、同等の、たとえそうでなくても、パフォーマンスを実現する方法を示します。
論文 参考訳(メタデータ) (2020-04-17T12:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。