論文の概要: Lightweight User-Personalization Method for Closed Split Computing
- arxiv url: http://arxiv.org/abs/2603.14958v1
- Date: Mon, 16 Mar 2026 08:16:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.151998
- Title: Lightweight User-Personalization Method for Closed Split Computing
- Title(参考訳): クローズドスプリットコンピューティングのための軽量ユーザパーソナライズ手法
- Authors: Yuya Okada, Takayuki Nishio,
- Abstract要約: Split Computingは、ディープニューラルネットワークをエッジ側ヘッドとサーバ側テールに分割することで、エッジデバイスとクラウド間の協調推論を可能にする。
我々は,閉じたスプリットコンピューティングシステムのための軽量適応フレームワークであるSALT(Split-Adaptive Tuning)を提案する。
- 参考スコア(独自算出の注目度): 1.3218606066831913
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split Computing enables collaborative inference between edge devices and the cloud by partitioning a deep neural network into an edge-side head and a server-side tail, reducing latency and limiting exposure of raw input data. However, inference performance often degrades in practical deployments due to user-specific data distribution shifts, unreliable communication, and privacy-oriented perturbations, especially in closed environments where model architectures and parameters are inaccessible. To address this challenge, we propose SALT (Split-Adaptive Lightweight Tuning), a lightweight adaptation framework for closed Split Computing systems. SALT introduces a compact client-side adapter that refines intermediate representations produced by a frozen head network, enabling effective model adaptation without modifying the head or tail networks or increasing communication overhead. By modifying only the training conditions, SALT supports multiple adaptation objectives, including user personalization, communication robustness, and privacy-aware inference. Experiments using ResNet-18 on CIFAR-10 and CIFAR-100 show that SALT achieves higher accuracy than conventional retraining and fine-tuning while significantly reducing training cost. On CIFAR-10, SALT improves personalized accuracy from 88.1% to 93.8% while reducing training latency by more than 60%. SALT also maintains over 90% accuracy under 75% packet loss and preserves high accuracy (about 88% at sigma = 1.0) under noise injection. These results demonstrate that SALT provides an efficient and practical adaptation framework for real-world Split Computing systems.
- Abstract(参考訳): Split Computingは、エッジ側ヘッドとサーバ側テールにディープニューラルネットワークを分割することで、エッジデバイスとクラウド間の協調推論を可能にし、レイテンシを低減し、生の入力データの露出を制限する。
しかし、特にモデルアーキテクチャやパラメータがアクセスできない閉じた環境では、ユーザ固有のデータ分散シフト、信頼性の低い通信、プライバシ指向の摂動によって、推論性能は劣化することが多い。
この課題に対処するため, クローズド・スプリット・コンピューティング・システムのための軽量適応フレームワーク SALT (Split-Adaptive Lightweight Tuning) を提案する。
SALTは、凍結したヘッドネットワークによって生成された中間表現を洗練し、ヘッドやテールネットワークを変更したり通信オーバーヘッドを増大させることなく効果的なモデル適応を可能にする、コンパクトなクライアントサイドアダプタを導入している。
トレーニング条件だけを変更することで、SALTは、ユーザのパーソナライゼーション、コミュニケーションの堅牢性、プライバシに配慮した推論など、複数の適応目標をサポートする。
CIFAR-10とCIFAR-100のResNet-18を用いた実験では、SALTは従来のリトレーニングや微調整よりも精度が高く、トレーニングコストは大幅に削減された。
CIFAR-10では、SALTはパーソナライズされた精度を88.1%から93.8%に改善し、トレーニングのレイテンシを60%以上削減した。
SALTはまた、75%のパケット損失下で90%以上の精度を維持し、ノイズ注入下では高い精度(シグマ=1.0で約88%)を維持する。
これらの結果から,SALTは実世界のスプリットコンピューティングシステムに対して,効率的かつ実用的な適応フレームワークを提供することが示された。
関連論文リスト
- SALT: A Lightweight Model Adaptation Method for Closed Split Computing Environments [2.847466645223566]
SALTは、閉じた制約下でのSplit Computingのための軽量なモデル適応フレームワークである。
クライアント側でコンパクトでトレーニング可能なアダプタを導入し、ヘッドネットワークから潜在機能を洗練します。
微調整法に比べてトレーニング遅延が小さく,精度が向上した。
論文 参考訳(メタデータ) (2025-06-09T02:08:02Z) - Reducing Communication Overhead in Federated Learning for Network Anomaly Detection with Adaptive Client Selection [0.0]
連合学習(FL)における通信オーバーヘッドは,ネットワーク異常検出システムにおいて重要な課題となる。
本稿では,バッチサイズ最適化,クライアント選択,非同期更新を組み合わせた適応FLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T17:29:21Z) - Lightweight Federated Learning with Differential Privacy and Straggler Resilience [19.94124499453864]
フェデレートラーニング(FL)は、生データの代わりにモデルパラメータ交換を通じて協調的なモデルトレーニングを可能にする。
パラメータ交換による潜在的な推論攻撃を避けるため、差分プライバシー(DP)は様々な攻撃に対して厳格な保証を提供する。
提案するLightDP-FLは,信頼できないピアやサーバに対して,証明可能なDPを保証する,新しい軽量なスキームである。
論文 参考訳(メタデータ) (2024-12-09T00:54:00Z) - Data-Free Dynamic Compression of CNNs for Tractable Efficiency [46.498278084317704]
構造化プルーニング手法は, 精度が大幅に低下することなく浮動小数点演算を低下させる可能性を示唆している。
HASTE(Hashing for Tractable Efficiency)は,データフリーでプラグイン・アンド・プレイのコンボリューションモジュールで,トレーニングや微調整なしにネットワークのテスト時間推論コストを瞬時に低減する。
CIFAR-10とImageNetでは46.72%のFLOPを1.25%の精度で削減した。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。