論文の概要: Exploring New Frontiers in Vertical Federated Learning: the Role of Saddle Point Reformulation
- arxiv url: http://arxiv.org/abs/2602.15996v1
- Date: Tue, 17 Feb 2026 20:37:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.430969
- Title: Exploring New Frontiers in Vertical Federated Learning: the Role of Saddle Point Reformulation
- Title(参考訳): 垂直的フェデレーション学習における新たなフロンティアを探る:サドルポイント改革の役割
- Authors: Aleksandr Beznosikov, Georgiy Kormakov, Alexander Grigorievskiy, Mikhail Rudakov, Ruslan Nazykov, Alexander Rogozin, Anton Vakhrushev, Andrey Savchenko, Martin Takáč, Alexander Gasnikov,
- Abstract要約: Vertical Federated Learning (VFL)の目的は、同じユーザを共有しながら、異なるデバイスで利用可能な機能を使ってモデルを集合的にトレーニングすることである。
本稿では,古典ラグランジアン関数によるVFL問題のサドル点再構成に着目する。
- 参考スコア(独自算出の注目度): 122.71978407721565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The objective of Vertical Federated Learning (VFL) is to collectively train a model using features available on different devices while sharing the same users. This paper focuses on the saddle point reformulation of the VFL problem via the classical Lagrangian function. We first demonstrate how this formulation can be solved using deterministic methods. More importantly, we explore various stochastic modifications to adapt to practical scenarios, such as employing compression techniques for efficient information transmission, enabling partial participation for asynchronous communication, and utilizing coordinate selection for faster local computation. We show that the saddle point reformulation plays a key role and opens up possibilities to use mentioned extension that seem to be impossible in the standard minimization formulation. Convergence estimates are provided for each algorithm, demonstrating their effectiveness in addressing the VFL problem. Additionally, alternative reformulations are investigated, and numerical experiments are conducted to validate performance and effectiveness of the proposed approach.
- Abstract(参考訳): Vertical Federated Learning (VFL)の目的は、同じユーザを共有しながら、異なるデバイスで利用可能な機能を使ってモデルを集合的にトレーニングすることである。
本稿では,古典ラグランジアン関数によるVFL問題のサドル点再構成に着目する。
まず、この定式化が決定論的手法によってどのように解けるかを示す。
さらに,効率的な情報伝達のための圧縮技術の導入,非同期通信のための部分的参加の実現,より高速な局所計算のための座標選択の活用など,現実的なシナリオに適応するための様々な確率的修正について検討する。
本稿では, サドル点再構成が重要な役割を担い, 標準最小化定式化では不可能と思われる拡張が適用可能であることを示す。
収束推定は各アルゴリズムに対して提供され、VFL問題に対処する上での有効性を示す。
さらに, 提案手法の性能と有効性を検証するために, 代替改質法について検討し, 数値実験を行った。
関連論文リスト
- Implicit Federated In-context Learning For Task-Specific LLM Fine-Tuning [10.042856500868805]
Inlicit Federated In-Context Learning (IFed-ICL) フレームワークを提案する。
IFED-ICLは、新しい分散協調パラダイムを確立するために、フェデレートラーニングからインスピレーションを得ている。
従来の手法と比較して、IFed-ICLは従来の微調整法で必要とされる広範囲なパラメータ更新を避ける。
論文 参考訳(メタデータ) (2025-11-10T06:34:29Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Scalable Vertical Federated Learning via Data Augmentation and Amortized Inference [1.912429179274357]
本稿では,ベイズモデルを垂直的フェデレート学習環境に組み込むための,初めての包括的枠組みを紹介する。
本稿では,共同確率がクライアント固有確率の積に分解される,特定のVFLシナリオに対する革新的モデル定式化を提案する。
我々の研究は、垂直に分割されたデータシナリオにおけるプライバシー保護、分散ベイズ推論の道を開いた。
論文 参考訳(メタデータ) (2024-05-07T06:29:06Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Decentralized Personalized Federated Learning for Min-Max Problems [79.61785798152529]
本稿では,より広い範囲の最適化問題を含むサドル点問題に対して,PFLを初めて検討した。
この問題に対処するための新しいアルゴリズムを提案し、滑らかな(強く)凸-(強く)凹点問題を理論的に解析する。
両線形問題に対する数値実験と, 対向雑音を有するニューラルネットワークは, 提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-14T10:36:25Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Privacy-Preserving Self-Taught Federated Learning for Heterogeneous Data [6.545317180430584]
フェデレーテッド・ラーニング(FL)は、各パーティのローカルデータを用いて、データを他人に公開することなく、ディープラーニングモデルのジョイントトレーニングを可能にするために提案された。
本研究では,前述の問題に対処するために,自己学習型フェデレーション学習と呼ばれるFL手法を提案する。
この方法では、潜在変数だけがモデルトレーニングのために他の当事者に送信され、プライバシはアクティベーション、重み、バイアスのデータとパラメータをローカルに保存することで保持される。
論文 参考訳(メタデータ) (2021-02-11T08:07:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。