論文の概要: FedRef: Communication-Efficient Bayesian Fine Tuning with Reference Model
- arxiv url: http://arxiv.org/abs/2506.23210v1
- Date: Sun, 29 Jun 2025 12:41:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.777322
- Title: FedRef: Communication-Efficient Bayesian Fine Tuning with Reference Model
- Title(参考訳): FedRef: 参照モデルによるコミュニケーション効率の良いベイズファインチューニング
- Authors: Taehwan Yoon, Bongjun Choi,
- Abstract要約: フェデレーション学習は、人工知能(AI)モデルをトレーニングするための分散シナリオに使用される。
フェデレートされた学習シナリオでは、サーバは一般にユーザのデータを知らない。
最適微調整のための参照モデルに基づくフェデレーション学習を提案する。
- 参考スコア(独自算出の注目度): 1.5028783379278987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning(FL) is used for distributed scenarios to train artificial intelligence(AI) models while ensuring users' privacy. In federated learning scenario, the server generally never knows about users' data. This type of concept makes the AI training process efficient in terms of data privacy. However, regarding model performance, federated AI models may not sufficiently satisfy AI users' expectations. Furthermore, AI users have a wide range of different needs. It is not easy to satisfy the whole users needs. These types of issues can be addressed through AI model optimization, fine-tuning, or personalization to achieve optimal model performance. To address model optimization challenges, we propose reference model-based federated learning for optimal fine-tuning, which overcomes catastrophic forgetting in each round. This method is derived from Bayesian parameter-efficient transfer learning, which includes an optimal proximal term and enables overcoming the catastrophic forgetting issue in each round by utilizing a reference model that incorporates previous model parameters. As a result, this method achieves both high model performance and low computing cost.
- Abstract(参考訳): フェデレートラーニング(FL)は、ユーザのプライバシを確保しながら人工知能(AI)モデルをトレーニングする分散シナリオに使用される。
フェデレートされた学習シナリオでは、サーバは一般にユーザのデータを知らない。
この種のコンセプトは、データプライバシの観点からAIトレーニングプロセスを効率化します。
しかし、モデルパフォーマンスに関しては、フェデレートされたAIモデルは、AIユーザの期待を十分に満たさない可能性がある。
さらに、AIユーザにはさまざまなニーズがあります。
ユーザのニーズ全体を満たすのは簡単ではありません。
この種の問題は、AIモデルの最適化、微調整、パーソナライゼーションを通じて対処することで、最適なモデルパフォーマンスを実現することができる。
モデル最適化の課題に対処するために、各ラウンドにおける破滅的な忘れを克服する最適微調整のための参照モデルに基づくフェデレーション学習を提案する。
本手法は, 最適近位項を含むベイズパラメータ効率の伝達学習から導出され, 従来のモデルパラメータを組み込んだ参照モデルを用いて, 各ラウンドにおける破滅的忘れ問題を克服することができる。
その結果,本手法は高モデル性能と低計算コストを両立させることができた。
関連論文リスト
- Intention-Conditioned Flow Occupancy Models [69.79049994662591]
大規模な事前学習は、今日の機械学習研究のやり方を根本的に変えた。
同じフレームワークを強化学習に適用することは、RLの中核的な課題に対処するための魅力的な方法を提供するので、魅力的です。
生成AIの最近の進歩は、高度に複雑な分布をモデリングするための新しいツールを提供している。
論文 参考訳(メタデータ) (2025-06-10T15:27:46Z) - Drama: Mamba-Enabled Model-Based Reinforcement Learning Is Sample and Parameter Efficient [9.519619751861333]
本稿では,SSM(State Space Model)ベースの世界モデルDramaを提案し,メモリと計算の複雑さを$O(n)$で実現した。
また, 早期のトレーニングにおいて, 誤った世界モデルによって引き起こされる準最適性を緩和する新しいサンプリング手法を提案する。
ドラマは、標準のラップトップのような市販のハードウェアでアクセス可能で、トレーニングできる。
論文 参考訳(メタデータ) (2024-10-11T15:10:40Z) - Getting More Juice Out of the SFT Data: Reward Learning from Human Demonstration Improves SFT for LLM Alignment [65.15914284008973]
我々は、報酬モデルと政策モデルを同時に構築するために、逆強化学習(IRL)技術を活用することを提案する。
提案アルゴリズムはIRL問題の定常解に収束することを示す。
その結果,アライメントプロセス全体を通じて報酬学習を活用することは有益であることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T07:11:05Z) - CoDream: Exchanging dreams instead of models for federated aggregation
with heterogeneous models [8.85591781936764]
我々はCoDreamという新しいフレームワークを提案し、クライアントはランダムなデータを協調的に最適化する。
私たちの重要な洞察は、このデータを共同で最適化することで、グローバルなデータ分布の特性を効果的に捉えることができるということです。
モデルパラメータを共有しないにもかかわらず、標準的なFLタスクでCoDreamを実証的に検証し、競争性能を実証する。
論文 参考訳(メタデータ) (2024-02-25T03:07:32Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [47.432215933099016]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Conservative Objective Models for Effective Offline Model-Based
Optimization [78.19085445065845]
計算設計の問題は、合成生物学からコンピュータアーキテクチャまで、様々な場面で発生している。
本研究では,分布外入力に対する接地的目標の実際の値を低くする目的関数のモデルを学習する手法を提案する。
COMは、様々なMBO問題に対して、既存のメソッドの実装と性能の面では単純である。
論文 参考訳(メタデータ) (2021-07-14T17:55:28Z) - SCEI: A Smart-Contract Driven Edge Intelligence Framework for IoT
Systems [15.796325306292134]
フェデレートラーニング(FL)は、データプライバシを維持しながら、エッジデバイス上で共有モデルの協調トレーニングを可能にする。
様々なパーソナライズされたアプローチが提案されているが、そのようなアプローチはデータ分散の根底にある変化に対処できない。
本稿では,ブロックチェーンとフェデレーション学習に基づく動的に最適化された個人深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-12T02:57:05Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。