論文の概要: Auto-Unrolled Proximal Gradient Descent: An AutoML Approach to Interpretable Waveform Optimization
- arxiv url: http://arxiv.org/abs/2603.17478v1
- Date: Wed, 18 Mar 2026 08:33:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.586016
- Title: Auto-Unrolled Proximal Gradient Descent: An AutoML Approach to Interpretable Waveform Optimization
- Title(参考訳): 自動制御された近位勾配線:解釈可能な波形最適化のためのオートMLアプローチ
- Authors: Ahmet Kaplan,
- Abstract要約: 本研究では、自動機械学習(AutoML)とモデルベースディープ展開(DU)を組み合わせて、無線ビームフォーミングと波形の最適化を行う。
我々は、反復勾配降下(PGD)アルゴリズムをディープニューラルネットワークに変換し、パラメータを所定のパラメータではなく学習する。
- 参考スコア(独自算出の注目度): 1.9290392443571385
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study explores the combination of automated machine learning (AutoML) with model-based deep unfolding (DU) for optimizing wireless beamforming and waveforms. We convert the iterative proximal gradient descent (PGD) algorithm into a deep neural network, wherein the parameters of each layer are learned instead of being predetermined. Additionally, we enhance the architecture by incorporating a hybrid layer that performs a learnable linear gradient transformation prior to the proximal projection. By utilizing AutoGluon with a tree-structured parzen estimator (TPE) for hyperparameter optimization (HPO) across an expanded search space, which includes network depth, step-size initialization, optimizer, learning rate scheduler, layer type, and post-gradient activation, the proposed auto-unrolled PGD (Auto-PGD) achieves 98.8% of the spectral efficiency of a traditional 200-iteration PGD solver using only five unrolled layers, while requiring only 100 training samples. We also address a gradient normalization issue to ensure consistent performance during training and evaluation, and we illustrate per-layer sum-rate logging as a tool for transparency. These contributions highlight a notable reduction in the amount of training data and inference cost required, while maintaining high interpretability compared to conventional black-box architectures.
- Abstract(参考訳): 本研究では、自動機械学習(AutoML)とモデルベースディープ展開(DU)を組み合わせて、無線ビームフォーミングと波形の最適化を行う。
我々は、反復的近位勾配降下法(PGD)アルゴリズムをディープニューラルネットワークに変換し、各層のパラメータを所定のパラメータではなく学習する。
さらに、近近射影に先立って学習可能な線形勾配変換を行うハイブリッド層を組み込むことで、アーキテクチャを強化する。
ネットワーク深度,ステップサイズ初期化,オプティマイザ,学習速度スケジューラ,レイヤタイプ,段階的アクティベーションを含む拡張された検索空間にまたがる超パラメータ最適化(HPO)のための木構造パーゼン推定器(TPE)を用いてAutoGluonを利用することにより,提案した自己学習PGD(Auto-PGD)のスペクトル効率の98.8%を,5つの未学習層を用いた従来の200項目PGDソルバのスペクトル効率の98.8%を達成し,100のトレーニングサンプルしか必要としない。
また、トレーニングや評価中に一貫したパフォーマンスを確保するため、勾配正規化の問題にも対処し、透過性のツールとして層ごとのサムレートロギングを例示する。
これらの貢献は、従来のブラックボックスアーキテクチャと比較して高い解釈可能性を維持しながら、トレーニングデータ量と推論コストの顕著な削減を強調している。
関連論文リスト
- Sequential Policy Gradient for Adaptive Hyperparameter Optimization [6.031164586412059]
本稿では,軽量オンラインハイパーパラメータ最適化のための新しいトラジェクトリ生成パラダイムである逐次ポリシーグラディエント・モデリング(SPG)を提案する。
SPGは、一時的なモジュールでベースモデルを拡張し、単一のフォワードパスでステートアクション(パッド付き)トラジェクトリを生成する。
実験により,SPGを用いて元のデータセットで再トレーニングすると,モデルの性能が向上し,標準転送の微調整性能も向上することを示した。
論文 参考訳(メタデータ) (2025-06-18T01:21:39Z) - LPGD: A General Framework for Backpropagation through Embedded Optimization Layers [26.251442093195376]
組込み最適化層を用いてアーキテクチャをトレーニングするためのフレキシブルなフレームワークを提案する。
Lagrangian Proximal Gradient Descentは、退化層誘導体の有意義な置換を効率的に計算する。
本手法を理論的に解析し,LPGDが微分可能な設定であっても勾配降下よりも早く収束することを示す。
論文 参考訳(メタデータ) (2024-07-08T13:27:41Z) - Layer-wise Adaptive Step-Sizes for Stochastic First-Order Methods for
Deep Learning [8.173034693197351]
深層学習における一階最適化のための新しい階層ごとの適応的なステップサイズ手順を提案する。
提案手法は,ディープニューラルネットワーク(DNN)におけるヘシアン対角ブロックに含まれる層次曲率情報を用いて,各層に対する適応的なステップサイズ(LR)を算出する。
数値実験により、SGDの運動量とAdamWと、提案した層ごとのステップサイズを組み合わせることで、効率的なLRスケジュールを選択できることが示されている。
論文 参考訳(メタデータ) (2023-05-23T04:12:55Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Neural Architecture Search for Efficient Uncalibrated Deep Photometric
Stereo [105.05232615226602]
差別化可能なニューラルアーキテクチャサーチ(NAS)戦略を利用して、非校正型PSアーキテクチャを自動的に見つける。
DiLiGenTデータセットの実験では、自動検索されたニューラルネットワークのパフォーマンスが、最先端の未校正PSメソッドと好適に比較されている。
論文 参考訳(メタデータ) (2021-10-11T21:22:17Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - Exploiting Adam-like Optimization Algorithms to Improve the Performance
of Convolutional Neural Networks [82.61182037130405]
勾配降下(SGD)は深いネットワークを訓練するための主要なアプローチです。
本研究では,現在と過去の勾配の違いに基づいて,Adamに基づく変分を比較する。
resnet50を勾配降下訓練したネットワークのアンサンブルと融合実験を行った。
論文 参考訳(メタデータ) (2021-03-26T18:55:08Z) - DHP: Differentiable Meta Pruning via HyperNetworks [158.69345612783198]
本稿では,ネットワークの自動プルーニングのためのハイパーネットによる識別可能なプルーニング手法を提案する。
遅延ベクトルは、バックボーンネットワーク内の畳み込み層の出力チャネルを制御し、レイヤのプルーニングのハンドルとして機能する。
画像分類、単一画像超解像、復調のための様々なネットワークで実験が行われた。
論文 参考訳(メタデータ) (2020-03-30T17:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。