論文の概要: CG-FKAN: Compressed-Grid Federated Kolmogorov-Arnold Networks for Communication Constrained Environment
- arxiv url: http://arxiv.org/abs/2511.01433v1
- Date: Mon, 03 Nov 2025 10:31:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.222476
- Title: CG-FKAN: Compressed-Grid Federated Kolmogorov-Arnold Networks for Communication Constrained Environment
- Title(参考訳): CG-FKAN:Compressed-Grid Federated Kolmogorov-Arnold Networks for Communication Constrained Environment
- Authors: Seunghun Yu, Youngjoon Lee, Jinu Gong, Joonhyuk Kang,
- Abstract要約: 本稿では,通信予算の下で必要不可欠な係数のみを分散・伝達することにより,拡張グリッドを圧縮するCG-FKANを提案する。
実験の結果、CG-FKANは通信制約のある環境では固定グリッドカンよりも最大13.6%低いRMSEを実現していることがわかった。
- 参考スコア(独自算出の注目度): 0.956631240874493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL), widely used in privacy-critical applications, suffers from limited interpretability, whereas Kolmogorov-Arnold Networks (KAN) address this limitation via learnable spline functions. However, existing FL studies applying KAN overlook the communication overhead introduced by grid extension, which is essential for modeling complex functions. In this letter, we propose CG-FKAN, which compresses extended grids by sparsifying and transmitting only essential coefficients under a communication budget. Experiments show that CG-FKAN achieves up to 13.6% lower RMSE than fixed-grid KAN in communication-constrained settings. In addition, we derive a theoretical upper bound on its approximation error.
- Abstract(参考訳): プライバシクリティカルなアプリケーションで広く使用されているフェデレートラーニング(FL)は、限定的な解釈可能性に悩まされているが、KAN(Kolmogorov-Arnold Networks)は学習可能なスプライン関数を通じてこの制限に対処している。
しかし,既存のFL研究では,複雑な関数のモデル化に不可欠であるグリッド拡張による通信オーバーヘッドを見落としている。
本稿では,通信予算の下で必要不可欠な係数のみを分散送信することにより,拡張グリッドを圧縮するCG-FKANを提案する。
実験の結果、CG-FKANは通信制約のある環境では固定グリッドカンよりも最大13.6%低いRMSEを実現していることがわかった。
さらに,近似誤差の理論的上限を導出する。
関連論文リスト
- Fluid Antenna System-assisted Physical Layer Secret Key Generation [64.92952968689636]
本稿では,流体アンテナシステム(FAS)を動的無線環境に適用することにより,多元系基地局システムにおける物理層生成(PLKG)について検討する。
本研究では,送信ビームフォーミングとポート選択を統合したPLKGモデルを提案する。
本論文で導入したスライディングウィンドウベースポート選択法は,動的ポート選択により,より少ないチェーンで高いKGRを実現する。
論文 参考訳(メタデータ) (2025-09-19T03:01:29Z) - Channel Fingerprint Construction for Massive MIMO: A Deep Conditional Generative Approach [65.47969413708344]
CF双生児の概念を導入し、条件付き生成拡散モデル(CGDM)を設計する。
本研究では, 粗粒CFに条件付き観測された細粒CFの対数分布に対するエビデンスローバウンド(ELBO)を導出するために, 変分推論手法を用いる。
提案手法は, ベースラインと比較して, 復元性能が著しく向上していることを示す。
論文 参考訳(メタデータ) (2025-05-12T01:36:06Z) - Want to train KANS at scale? Now UKAN! [2.9666099400348607]
我々は、従来のコルモゴロフ・アルノルドネットワーク(KAN)における有界グリッドの必要性を取り除く方法であるUnbounded Kolmogorov-Arnold Networks (UKANs)を提案する。
UKANは、グリッドグループの位置符号化をCGモデルに入力することで、カンと多層パーセプトロンを結合し、データ正規化を必要とせずに非有界領域上の関数近似を可能にする。
論文 参考訳(メタデータ) (2024-08-20T21:20:38Z) - Smooth Kolmogorov Arnold networks enabling structural knowledge representation [0.0]
Kolmogorov-Arnold Networks (KAN) は、従来のマルチ層パーセプトロン(MLP)アーキテクチャに代わる、効率的かつ解釈可能な代替手段を提供する。
固有の構造的知識を活用することで、カンは訓練に必要なデータを減らすことができ、幻覚的予測を発生させるリスクを軽減することができる。
論文 参考訳(メタデータ) (2024-05-18T15:27:14Z) - FedComLoc: Communication-Efficient Distributed Training of Sparse and Quantized Models [52.13056951033747]
フェデレートラーニング(FL)は、異種クライアントがローカルにプライベートデータを処理し、中央サーバーと対話できるというユニークな特徴から、注目を集めている。
FLにおける重要なボトルネックは通信コストです。
我々の研究は、FLにおける通信複雑性の低減を推進した革新的なScaffnewアルゴリズムにインスパイアされている。
我々はFedComLocを導入し、実用的で効果的な圧縮をScaffnewに統合し、通信効率をさらに高める。
論文 参考訳(メタデータ) (2024-03-14T22:29:59Z) - Performance Limits of a Deep Learning-Enabled Text Semantic
Communication under Interference [89.91583691993071]
本稿では,(マルチインターフェラー)RFIの存在下でのDeepSCという人気テキストSemComシステムの性能限界について検討する。
本稿では,DeepSCが意味的に無関係な文を生成することを示す。
また,マルチインターフェラーRFIにおいて,DeepSCの実用限界と停止確率の低い値も導出する。
論文 参考訳(メタデータ) (2023-02-15T05:43:08Z) - Communication Topology Co-Design in Graph Recurrent Neural Network Based
Distributed Control [4.492630871726495]
分散コントローラのコンパクトかつ表現力のあるグラフ繰り返しニューラルネットワーク(GRNN)パラメータ化について紹介する。
提案されたパラメータ化は,従来のGNN(Graph Neural Network)ベースのパラメータ化に類似した,ローカルおよび分散アーキテクチャである。
本研究では,性能/通信密度のトレードオフ曲線を効率よく近似できることを示す。
論文 参考訳(メタデータ) (2021-04-28T16:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。