論文の概要: TCN-DPD: Parameter-Efficient Temporal Convolutional Networks for Wideband Digital Predistortion
- arxiv url: http://arxiv.org/abs/2506.12165v1
- Date: Fri, 13 Jun 2025 18:30:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.304823
- Title: TCN-DPD: Parameter-Efficient Temporal Convolutional Networks for Wideband Digital Predistortion
- Title(参考訳): TCN-DPD:広帯域ディジタル予測のためのパラメータ効率の良い時間畳み込みネットワーク
- Authors: Huanqiang Duan, Manno Versluis, Qinyu Chen, Leo C. N. de Vreede, Chang Gao,
- Abstract要約: TCN-DPDは時間畳み込みネットワークに基づくパラメータ効率の高いアーキテクチャである。
シミュレーションされたACPRは-51.58/-49.26 dBc (L/R)、EVMは-47.52 dB、NMSEは-44.61 dB、パラメータは500である。
従来のモデルよりも200パラメータまで優れた線形化を維持しており、効率的な広帯域PA線形化を約束している。
- 参考スコア(独自算出の注目度): 3.6966254731864727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Digital predistortion (DPD) is essential for mitigating nonlinearity in RF power amplifiers, particularly for wideband applications. This paper presents TCN-DPD, a parameter-efficient architecture based on temporal convolutional networks, integrating noncausal dilated convolutions with optimized activation functions. Evaluated on the OpenDPD framework with the DPA_200MHz dataset, TCN-DPD achieves simulated ACPRs of -51.58/-49.26 dBc (L/R), EVM of -47.52 dB, and NMSE of -44.61 dB with 500 parameters and maintains superior linearization than prior models down to 200 parameters, making it promising for efficient wideband PA linearization.
- Abstract(参考訳): RFパワーアンプの非線形性を緩和するためには、特に広帯域アプリケーションにおいて、デジタルプリデフォルション(DPD)が不可欠である。
本稿では、時間的畳み込みネットワークに基づくパラメータ効率の高いアーキテクチャであるTCN-DPDについて、非因果拡張畳み込みと最適化活性化関数の統合について述べる。
DPA_200MHzデータセットを用いてOpenDPDフレームワーク上で評価され、TCN-DPDは-51.58/-49.26 dBc (L/R)、EVMは-47.52 dB、NMSEは-44.61 dBで500のパラメータを持ち、以前のモデルよりも200のパラメータで優れた線形化を維持し、効率的な広帯域PA線形化を実現する。
関連論文リスト
- DeltaDPD: Exploiting Dynamic Temporal Sparsity in Recurrent Neural Networks for Energy-Efficient Wideband Digital Predistortion [11.598016224384875]
広帯域RFパワーアンプ(PA)における信号品質向上手法として,DPD(Digital Predistortion)が一般的である。
本稿では,エネルギー効率の DPD を実現するため,RNN における入力信号と神経隠れ状態の動的時間的間隔について検討する DeltaDPD を紹介する。
論文 参考訳(メタデータ) (2025-04-29T10:07:52Z) - VP-NTK: Exploring the Benefits of Visual Prompting in Differentially Private Data Synthesis [48.75967507528161]
微分プライベート(DP)合成データは、機密データを公開するためのデファクトスタンダードとなっている。
パラメータ効率細調整(PEFT)における新しい手法の1つは、視覚的プロンプト(VP)である。
本研究では, DP生成モデルのトレーニングにおいて, ニューラルタンジェントカーネル(NTK)のパワーを利用するDPジェネレータであるDP-NTKと組み合わせたVPが, 大幅な性能向上を実現していることを示す。
論文 参考訳(メタデータ) (2025-03-20T14:42:11Z) - BiDM: Pushing the Limit of Quantization for Diffusion Models [60.018246440536814]
本稿では,DMの重みとアクティベーションを完全にバイナライズし,量子化を1ビット限界まで押し上げる手法であるBiDMを提案する。
DMを完全にバイナライズする最初の取り組みとして、LSUN-Bedrooms 256$times$256のLDM-4モデルのW1A1 BiDMは22.74という驚くべきFIDを達成した。
論文 参考訳(メタデータ) (2024-12-08T12:45:21Z) - DPD-NeuralEngine: A 22-nm 6.6-TOPS/W/mm$^2$ Recurrent Neural Network Accelerator for Wideband Power Amplifier Digital Pre-Distortion [9.404504586344107]
DPD-NeuralEngine は Gated Recurrent Unit (GRU) Neural Network (NN) に基づく超高速、小型、電力効率の DPD 加速器である。
22nmのCMOS実装は2GHzで動作し、最大250MSpsのI/Q信号を処理できる。
我々の知る限り、この研究はAIベースのDPDアプリケーション固有集積回路(ASIC)アクセラレーターとしては初めてのものである。
論文 参考訳(メタデータ) (2024-10-15T16:39:50Z) - MP-DPD: Low-Complexity Mixed-Precision Neural Networks for Energy-Efficient Digital Predistortion of Wideband Power Amplifiers [8.58564278168083]
Digital Pre-Distortion (DPD) は広帯域RFパワー増幅器(PA)の信号品質を向上させる
本稿では,エネルギー効率の DPD に対して,量子化された低精度固定点パラメータを用いたオープンソースの混合精度(MP)ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-04-18T21:04:39Z) - OpenDPD: An Open-Source End-to-End Learning & Benchmarking Framework for
Wideband Power Amplifier Modeling and Digital Pre-Distortion [2.6771785584103935]
デジタル事前歪み(DPD)のためのディープニューラルネットワーク(DNN)が注目されている。
本稿ではPyTorchで開発されたオープンソースフレームワークOpenDPDについて述べる。
本稿では,Dense Gated Recurrent Unit (DGRU)-DPDを導入する。
論文 参考訳(メタデータ) (2024-01-16T12:36:17Z) - On Neural Architectures for Deep Learning-based Source Separation of
Co-Channel OFDM Signals [104.11663769306566]
周波数分割多重化(OFDM)信号を含む単一チャネル音源分離問題について検討する。
我々はOFDM構造からの洞察に基づいて、ネットワークパラメータ化に対する重要なドメインインフォームド修正を提案する。
論文 参考訳(メタデータ) (2023-03-11T16:29:13Z) - Continual Spatio-Temporal Graph Convolutional Networks [87.86552250152872]
時空間グラフ畳み込みニューラルネットワークを連続推論ネットワークとして再構成する。
オンライン推論において、最大109倍の時間複雑性、26倍のハードウェアアクセラレーション、最大割り当てメモリの最大52%の削減を観測した。
論文 参考訳(メタデータ) (2022-03-21T14:23:18Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。