論文の概要: Turbo-ICL: In-Context Learning-Based Turbo Equalization
- arxiv url: http://arxiv.org/abs/2505.06175v1
- Date: Fri, 09 May 2025 16:29:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.339081
- Title: Turbo-ICL: In-Context Learning-Based Turbo Equalization
- Title(参考訳): Turbo-ICL: 文脈学習に基づくターボ等化
- Authors: Zihang Song, Matteo Zecchin, Bipin Rajendran, Osvaldo Simeone,
- Abstract要約: 本稿では,大規模言語モデル(LLM)にインスパイアされた,新しい文脈内学習フレームワークを提案する。
パイロット信号とデコーダフィードバックのプロンプトから直接後部シンボル分布を推測する。
トランスフォーマーと状態空間アーキテクチャに基づく2つのモデル変異体を開発し,評価した。
- 参考スコア(独自算出の注目度): 30.918855018647385
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a novel in-context learning (ICL) framework, inspired by large language models (LLMs), for soft-input soft-output channel equalization in coded multiple-input multiple-output (MIMO) systems. The proposed approach learns to infer posterior symbol distributions directly from a prompt of pilot signals and decoder feedback. A key innovation is the use of prompt augmentation to incorporate extrinsic information from the decoder output as additional context, enabling the ICL model to refine its symbol estimates iteratively across turbo decoding iterations. Two model variants, based on Transformer and state-space architectures, are developed and evaluated. Extensive simulations demonstrate that, when traditional linear assumptions break down, e.g., in the presence of low-resolution quantization, ICL equalizers consistently outperform conventional model-based baselines, even when the latter are provided with perfect channel state information. Results also highlight the advantage of Transformer-based models under limited training diversity, as well as the efficiency of state-space models in resource-constrained scenarios.
- Abstract(参考訳): 本稿では,符号化マルチインプットマルチアウトプット(MIMO)システムにおけるソフト・インプット・ソフト・アウトプットチャネル等化のための,大規模言語モデル(LLM)にインスパイアされた新しいインコンテキスト・ラーニング(ICL)フレームワークを提案する。
提案手法は、パイロット信号とデコーダフィードバックのプロンプトから直接後部シンボル分布を推定することを学ぶ。
重要な革新は、デコーダ出力からの外部情報を追加のコンテキストとして組み込むためにプロンプト拡張を使用することで、ICLモデルはターボ復号の繰り返しにわたってシンボル推定を反復的に洗練することができる。
トランスフォーマーと状態空間アーキテクチャに基づく2つのモデル変異体を開発し,評価した。
大規模なシミュレーションにより、例えば低分解能量子化の存在下で伝統的な線形仮定が崩壊した場合、ICL等化器は完全チャネル状態情報を提供しても、従来のモデルベースベースラインを一貫して上回ることを示した。
結果として、トレーニングの多様性が制限されたTransformerベースのモデルと、リソース制約のあるシナリオにおける状態空間モデルの効率性が強調される。
関連論文リスト
- Scalable Language Models with Posterior Inference of Latent Thought Vectors [52.63299874322121]
Latent-Thought Language Models (LTM) には、潜在空間における明示的な事前モデルに従う明示的な潜在思考ベクトルが含まれている。
LTMは従来のLLMを超える拡張次元を持ち、構造化された設計空間を提供する。
LTMは従来の自己回帰モデルや離散拡散モデルよりも、検証の難易度やゼロショット言語モデリングにおいて著しく優れている。
論文 参考訳(メタデータ) (2025-02-03T17:50:34Z) - Emergence of Abstractions: Concept Encoding and Decoding Mechanism for In-Context Learning in Transformers [18.077009146950473]
自己回帰変換器は文脈内学習(ICL)を通して適応学習を示す
変換器の表現において内部抽象をどう形成し、どのように利用するかを研究することにより、ICLを説明するための符号化・復号機構を提案する。
私たちの経験的洞察は、その表現を通じて、大きな言語モデルの成功と失敗モードの理解を深めました。
論文 参考訳(メタデータ) (2024-12-16T19:00:18Z) - The Graph's Apprentice: Teaching an LLM Low Level Knowledge for Circuit Quality Estimation [34.37154877681809]
本研究は,HDLコードから直接回路品質を推定するための予測ネットワークを用いて,大規模言語モデル(LLM)を拡張することを提案する。
性能を向上させるために、Look-Up Table (LUT)グラフでトレーニングされたグラフニューラルネットワーク(GNN)の埋め込みを使用してモデルを正規化する。
提案手法は,既存のベンチマークOpenABCDにおけるRTLレベルの推定手法と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-30T04:20:10Z) - SOLO: A Single Transformer for Scalable Vision-Language Modeling [74.05173379908703]
我々はvisiOn-Language mOdelingのための単一変換器SOLOを提案する。
SOLOのような統一された単一トランスフォーマーアーキテクチャは、LVLMにおけるこれらのスケーラビリティ上の懸念に効果的に対処する。
本稿では,オープンソースの7B LVLMであるSOLOの開発のための,最初のオープンソーストレーニングレシピを紹介する。
論文 参考訳(メタデータ) (2024-07-08T22:40:15Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - Streaming Multi-Talker ASR with Token-Level Serialized Output Training [53.11450530896623]
t-SOTはマルチトーカー自動音声認識のための新しいフレームワークである。
t-SOTモデルには、推論コストの低減とよりシンプルなモデルアーキテクチャの利点がある。
重複しない音声の場合、t-SOTモデルは精度と計算コストの両面において単一ストーカーのASRモデルと同等である。
論文 参考訳(メタデータ) (2022-02-02T01:27:21Z) - Transformer-based ASR Incorporating Time-reduction Layer and Fine-tuning
with Self-Knowledge Distillation [11.52842516726486]
本稿では,トランスエンコーダ層に時間削減層を組み込んだTransformer-based ASRモデルを提案する。
また、自己知識蒸留(S-KD)を用いた事前学習型ASRモデルの微調整手法を導入し、ASRモデルの性能をさらに向上させる。
言語モデル(LM)融合により、トランスフォーマーベースのASRモデルのための最新の単語誤り率(WER)結果を達成します。
論文 参考訳(メタデータ) (2021-03-17T21:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。