論文の概要: PEARL: Peer-Enhanced Adaptive Radio via On-Device LLM
- arxiv url: http://arxiv.org/abs/2509.24085v1
- Date: Sun, 28 Sep 2025 21:43:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.623312
- Title: PEARL: Peer-Enhanced Adaptive Radio via On-Device LLM
- Title(参考訳): PEARL: オンデバイスLCMによるピアエンハンスメント適応無線
- Authors: Ju-Hyung Lee, Yanqing Lu, Klaus Doppler,
- Abstract要約: PEARLはデバイス間通信(D2D)における協調的な層間最適化のためのフレームワークである。
コンテキスト認識報酬は、アプリケーション寛容によってレイテンシを正規化し、デバイスバッテリ状態によってエネルギーを変調する。
- 参考スコア(独自算出の注目度): 8.589171446273996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present PEARL (Peer-Enhanced Adaptive Radio via On-Device LLM), a framework for cooperative cross-layer optimization in device-to-device (D2D) communication. Building on our previous work on single-device on-device LLMs, PEARL extends the paradigm by leveraging both publisher and subscriber states to guide Wi-Fi Aware (WA) parameter selection. A context-aware reward, which normalizes latency by application tolerances and modulates energy by device battery states, provides richer supervision for KL-based finetuning. We study two lightweight variants: PEARL (Head + Low-Rank Adaptation (LoRA)) achieves the best overall performance, while PEARL-Lite (Head-only) delivers sub-20 ms inference at near-identical objective scores. Across synthetic scenarios grounded in real measurements, PEARL improves objective scores over heuristic and compact model baselines and reduces energy by up to 16% in cooperative low-battery cases. These results demonstrate that peer-aware context, reward-aligned training, and head-based efficiency make LLMs practical for always-on, on-device cross-layer control.
- Abstract(参考訳): デバイス間通信における協調的な層間最適化のためのフレームワークであるPEARL(Peer-Enhanced Adaptive Radio via On-Device LLM)を提案する。
PEARLは、これまでのシングルデバイスオンデバイスLCMの研究に基づいて、パブリッシャとサブスクライバ状態の両方を活用して、Wi-Fi Aware(WA)パラメータ選択をガイドすることによってパラダイムを拡張した。
アプリケーショントレランスによるレイテンシの正規化とデバイスバッテリ状態によるエネルギーの変調を行うコンテキストアウェア報酬は、KLベースの微調整のためのよりリッチな監視を提供する。
PEARL (Head + Low-Rank Adaptation (LoRA)) は最高の全体的な性能を達成し、PEARL-Lite (Head-only) は20ms以下の推定をほぼ同一の目標スコアで提供する。
PEARLは実測値に基づく合成シナリオ全体にわたって、ヒューリスティックでコンパクトなモデルベースラインよりも客観的なスコアを改善し、協調的な低電池ケースでは最大16%のエネルギー削減を実現している。
これらの結果から,ピア・アウェア・コンテキスト,報酬整合トレーニング,ヘッド・ベース・効率が,常時オン・オン・オン・オン・デバイス・デバイス・クロス層制御において実用的であることが示された。
関連論文リスト
- AirLLM: Diffusion Policy-based Adaptive LoRA for Remote Fine-Tuning of LLM over the Air [14.089748643405498]
AirLLMは、コミュニケーションを意識したLoRA適応のための階層的な拡散ポリシーフレームワークである。
AirLLMは、送信コストを大幅に削減しつつ、微調整性能を継続的に向上させる。
論文 参考訳(メタデータ) (2025-07-15T17:36:37Z) - Dissecting the Impact of Mobile DVFS Governors on LLM Inference Performance and Energy Efficiency [20.904706759529237]
大きな言語モデル(LLM)は、数十億のモバイルデバイス上で動作するさまざまなアプリケーションやサービスに統合されつつある。
現在、リソース制限されたモバイルデバイスにLSMをデプロイすることは、計算、メモリ、最終的にはエネルギーの需要が高いため、大きな課題に直面している。
論文 参考訳(メタデータ) (2025-07-02T20:47:40Z) - LLM-QFL: Distilling Large Language Model for Quantum Federated Learning [13.782852293291493]
大規模言語モデル(LLM)を量子フェデレーション学習(QFL)に適用し、効率と性能を向上させる。
本稿では,QFL 内で LLM を蒸留するファインチューニング手法を提案する。
実験は高い効率性を示す。
論文 参考訳(メタデータ) (2025-05-24T11:49:21Z) - On-Device LLM for Context-Aware Wi-Fi Roaming [4.8099196240978275]
無線LAN(Wi-Fi)におけるローミングは、動的モバイル環境におけるシームレスな接続を維持する上で重要な課題である。
デバイス上での大規模言語モデル(LLM)の最初のクロス層利用について紹介する。
論文 参考訳(メタデータ) (2025-05-07T07:04:49Z) - R-Sparse: Rank-Aware Activation Sparsity for Efficient LLM Inference [77.47238561728459]
R-スパース(R-Sparse)は、高度なLCMにおいて高い疎度を達成できる訓練不要なアクティベーション・スパシティ・アプローチである。
10種類のタスクにわたるLlama-2/3およびMistralモデルの実験は、R-Sparseが50%のモデルレベルの間隔で同等のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-28T03:30:32Z) - Sustainable LLM Inference for Edge AI: Evaluating Quantized LLMs for Energy Efficiency, Output Accuracy, and Inference Latency [6.306413686006502]
我々はOllamaライブラリから28の量子化大言語モデル(LLM)を包括的に分析する。
我々は、複数の量子化レベルおよびタスクタイプにわたるエネルギー効率、推論性能、出力精度を評価する。
その結果,異なる量子化設定におけるエネルギー効率,推定速度,精度のトレードオフが明らかになった。
論文 参考訳(メタデータ) (2025-04-04T11:29:30Z) - AIvaluateXR: An Evaluation Framework for on-Device AI in XR with Benchmarking Results [55.33807002543901]
我々は,XRデバイス上で動作する大規模言語モデル(LLM)をベンチマークするための総合評価フレームワークであるAIvaluateXRを提案する。
我々はMagic Leap 2、Meta Quest 3、Vivo X100s Pro、Apple Vision Proという4つのXRプラットフォームに17個の選択されたLSMをデプロイし、広範囲な評価を行います。
本稿では,3次元最適性理論に基づく統一評価手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T20:55:48Z) - WDMoE: Wireless Distributed Mixture of Experts for Large Language Models [68.45482959423323]
大規模言語モデル(LLM)は様々な自然言語処理タスクにおいて大きな成功を収めた。
本稿では,無線ネットワーク上での基地局(BS)およびモバイルデバイスにおけるエッジサーバ間のLLMの協調展開を実現するために,無線分散Mixture of Experts(WDMoE)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-11-11T02:48:00Z) - An Embarrassingly Simple Approach for LLM with Strong ASR Capacity [56.30595787061546]
我々は,音声基礎エンコーダと大規模言語モデル(LLM)を用いて,音声処理の分野で最も重要な課題の1つを解決することに注力する。
最近の研究は、音声エンコーダの出力を時間的に圧縮したり、プロジェクタのモーダルアライメントに対処したり、LLMのパラメータ効率の良い微調整を利用するといった複雑な設計をしている。
そこで本研究では,市販の音声エンコーダLLMと,トレーニング可能な唯一の線形プロジェクタの単純な構成がASRタスクに適しているのに対して,繊細な設計は必要ないことを発見した。
論文 参考訳(メタデータ) (2024-02-13T23:25:04Z) - Unit-Modulus Wireless Federated Learning Via Penalty Alternating
Minimization [64.76619508293966]
Wireless Federated Learning(FL)は、分散データセットから無線通信を介してグローバルパラメトリックモデルをトレーニングする、新興機械学習パラダイムである。
本稿では、ローカルモデルパラメータをアップロードし、無線通信を介してグローバルモデルパラメータを算出する無線FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T08:19:54Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。