論文の概要: In-Context Learning for Non-Stationary MIMO Equalization
- arxiv url: http://arxiv.org/abs/2510.08711v1
- Date: Thu, 09 Oct 2025 18:16:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.4046
- Title: In-Context Learning for Non-Stationary MIMO Equalization
- Title(参考訳): 非定常MIMO等化のためのインコンテキスト学習
- Authors: Jiachen Jiang, Zhen Qin, Zhihui Zhu,
- Abstract要約: In-context Learning (ICL) は、いくつかの例で推論時に新しいチャネルに適応する。
既存のICLベースの等化器は、主にコンテキストウィンドウ内の静的チャネルに対して開発・評価されている。
非定常タスクの適応性を改善した効率的な注意機構を設計するための原則的枠組みを用いる。
- 参考スコア(独自算出の注目度): 23.324726233034614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Channel equalization is fundamental for mitigating distortions such as frequency-selective fading and inter-symbol interference. Unlike standard supervised learning approaches that require costly retraining or fine-tuning for each new task, in-context learning (ICL) adapts to new channels at inference time with only a few examples. However, existing ICL-based equalizers are primarily developed for and evaluated on static channels within the context window. Indeed, to our knowledge, prior principled analyses and theoretical studies of ICL focus exclusively on the stationary setting, where the function remains fixed within the context. In this paper, we investigate the ability of ICL to address non-stationary problems through the lens of time-varying channel equalization. We employ a principled framework for designing efficient attention mechanisms with improved adaptivity in non-stationary tasks, leveraging algorithms from adaptive signal processing to guide better designs. For example, new attention variants can be derived from the Least Mean Square (LMS) adaptive algorithm, a Least Root Mean Square (LRMS) formulation for enhanced robustness, or multi-step gradient updates for improved long-term tracking. Experimental results demonstrate that ICL holds strong promise for non-stationary MIMO equalization, and that attention mechanisms inspired by classical adaptive algorithms can substantially enhance adaptability and performance in dynamic environments. Our findings may provide critical insights for developing next-generation wireless foundation models with stronger adaptability and robustness.
- Abstract(参考訳): チャネル等化は周波数選択性フェーディングやシンボル間干渉のような歪みを緩和するための基本となる。
標準教師付き学習アプローチでは、新しいタスクごとにコストのかかるトレーニングや微調整を必要とするが、ICL(In-context Learning)は推論時にいくつかの例で新しいチャネルに適応する。
しかし、既存のICLベースの等化器は、主にコンテキストウィンドウ内の静的チャネルに対して開発・評価されている。
実際、我々の知識では、ICLの先行原理解析と理論的研究は、関数が文脈内で固定されたままの定常的な設定にのみ焦点をあてている。
本稿では,時間変化チャネル等化レンズによる非定常問題へのICLの適用について検討する。
我々は、適応信号処理のアルゴリズムを利用して、非定常タスクの適応性を向上し、効率的な注意機構を設計するための原則的枠組みを採用している。
例えば、新しいアテンションのバリエーションは、LMS適応アルゴリズム(Last Mean Square)、強化されたロバストネスのためのLast Root Mean Square(LRMS)の定式化、長期追跡を改善するためのマルチステップ勾配更新から得ることができる。
実験の結果、ICLは非定常MIMO等化を強く保証しており、古典的適応アルゴリズムにインスパイアされた注意機構は動的環境における適応性と性能を大幅に向上させることが示された。
本研究は,適応性とロバスト性に優れた次世代無線基礎モデルを開発するための重要な洞察を与える可能性がある。
関連論文リスト
- Adaptive Reinforcement Learning for Dynamic Configuration Allocation in Pre-Production Testing [4.370892281528124]
本稿では, コンフィグレーション割り当てを逐次決定問題として再放送する, 新たな強化学習フレームワークを提案する。
提案手法は,Q-ラーニングをシミュレーション結果とリアルタイムフィードバックを融合したハイブリッド報酬設計と統合する最初の方法である。
論文 参考訳(メタデータ) (2025-10-02T05:12:28Z) - Stabilizing Policy Gradients for Sample-Efficient Reinforcement Learning in LLM Reasoning [77.92320830700797]
強化学習は、大規模言語モデルの推論機能を実現する上で中心的な役割を果たしてきた。
本稿では,ポリシー更新時の曲率情報を追跡し,活用するトラクタブルな計算フレームワークを提案する。
アルゴリズムであるCurvature-Aware Policy Optimization (CAPO)は、不安定な更新に寄与するサンプルを特定し、それらをマスクアウトする。
論文 参考訳(メタデータ) (2025-10-01T12:29:32Z) - In-Context Learning for Gradient-Free Receiver Adaptation: Principles, Applications, and Theory [54.92893355284945]
ディープラーニングベースの無線受信機は、様々なチャネル環境に動的に適応する能力を提供する。
ジョイントトレーニング、ハイパーネットワークベースの手法、メタラーニングを含む現在の適応戦略は、限られた柔軟性を示すか、勾配降下による明示的な最適化を必要とする。
本稿では、インコンテキスト学習(ICL)の新たなパラダイムに根ざした勾配なし適応手法を提案する。
論文 参考訳(メタデータ) (2025-06-18T06:43:55Z) - A Unified Gradient-based Framework for Task-agnostic Continual Learning-Unlearning [30.2773429357068]
近年の深層モデルの進歩は、知識獲得のための連続学習(CL)とデータ除去のための機械アンラーニング(MU)を組み合わせたインテリジェントシステムの必要性を強調している。
Kullback-Leibler の発散最小化に基づく統一最適化フレームワークにより,本質的な接続を明らかにする。
実験により、提案したUG-CLUフレームワークは、複数のデータセットやモデルアーキテクチャにわたるインクリメンタルラーニング、正確なアンラーニング、知識安定性を効果的に調整することを示した。
論文 参考訳(メタデータ) (2025-05-21T06:49:05Z) - Parameter-Efficient Fine-Tuning for Continual Learning: A Neural Tangent Kernel Perspective [125.00228936051657]
本稿では,タスク関連機能を適応的に生成しながら,タスク固有のパラメータ記憶を不要にする新しいフレームワークNTK-CLを紹介する。
最適化可能なパラメータを適切な正規化で微調整することにより、NTK-CLは確立されたPEFT-CLベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-24T09:30:04Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。