論文の概要: Gaming and Cooperation in Federated Learning: What Can Happen and How to Monitor It
- arxiv url: http://arxiv.org/abs/2509.02391v1
- Date: Tue, 02 Sep 2025 14:55:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.072142
- Title: Gaming and Cooperation in Federated Learning: What Can Happen and How to Monitor It
- Title(参考訳): フェデレーションラーニングにおけるゲームと協力:何が起こり得るのか、それをどのように監視するか
- Authors: Dongseok Kim, Wonjun Jeong, Gisung Oh,
- Abstract要約: 分析フレームワークは、パフォーマンスを真に向上する振る舞いを、単にメトリクスをターゲットとしているものから明確に識別することを可能にする。
行動インセンティブと集団的パフォーマンス損失を定量化する指標を2つ導入する。
限られた監査資源を割り当てる実用的なアルゴリズムと性能保証を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of Federated Learning depends on the actions that participants take out of sight. We model Federated Learning not as a mere optimization task but as a strategic system entangled with rules and incentives. From this perspective, we present an analytical framework that makes it possible to clearly identify where behaviors that genuinely improve performance diverge from those that merely target metrics. We introduce two indices that respectively quantify behavioral incentives and collective performance loss, and we use them as the basis for consistently interpreting the impact of operational choices such as rule design, the level of information disclosure, evaluation methods, and aggregator switching. We further summarize thresholds, auto-switch rules, and early warning signals into a checklist that can be applied directly in practice, and we provide both a practical algorithm for allocating limited audit resources and a performance guarantee. Simulations conducted across diverse environments consistently validate the patterns predicted by our framework, and we release all procedures for full reproducibility. While our approach operates most strongly under several assumptions, combining periodic recalibration, randomization, and connectivity-based alarms enables robust application under the variability of real-world operations. We present both design principles and operational guidelines that lower the incentives for metric gaming while sustaining and expanding stable cooperation.
- Abstract(参考訳): フェデレートラーニングの成功は、参加者が目に見えない行動に依存する。
私たちはフェデレーション学習を単なる最適化タスクではなく、ルールやインセンティブに縛られた戦略的システムとしてモデル化します。
この観点から、パフォーマンスを真に向上する振る舞いを、単にメトリクスをターゲットとしているものから明確に識別することを可能にする分析フレームワークを提案する。
行動インセンティブと集団的パフォーマンス損失を定量化する指標を2つ導入し,ルール設計や情報開示のレベル,評価方法,アグリゲータスイッチングといった操作選択の影響を一貫して解釈する基盤として利用する。
さらに、しきい値、自動スウィッチルール、早期警告信号を、実際に直接適用可能なチェックリストに要約し、限られた監査リソースを割り当てる実用的なアルゴリズムと性能保証を提供する。
様々な環境にまたがるシミュレーションは、我々のフレームワークによって予測されるパターンを一貫して検証し、完全な再現性のためのすべての手順を公表する。
提案手法はいくつかの前提の下では最も強く機能するが, 周期的再校正, ランダム化, 接続性に基づくアラームを組み合わせることで, 実世界の操作の可変性の下で堅牢なアプリケーションを実現することができる。
我々は,安定的な協力を維持し,拡大しながら,メートル法ゲームに対するインセンティブを低下させる設計原則と運用ガイドラインを提示する。
関連論文リスト
- COPO: Consistency-Aware Policy Optimization [17.328515578426227]
強化学習は、複雑な問題解決タスクにおける大規模言語モデル(LLM)の推論能力を大幅に向上させた。
近年、DeepSeek R1の導入により、ルールベースの報酬をコンピューティングの利点関数の低コストな代替手段として活用し、ポリシー最適化を導くことへの関心が高まっている。
本稿では,結果整合性に基づくグローバルな報酬構造を導入する,整合性を考慮したポリシー最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-06T07:05:18Z) - Feature-Based vs. GAN-Based Learning from Demonstrations: When and Why [50.191655141020505]
この調査は、デモから学ぶ機能ベースのアプローチとGANベースのアプローチの比較分析を提供する。
特徴に基づく手法とGANに基づく手法の2分法はますます曖昧になっていると我々は主張する。
論文 参考訳(メタデータ) (2025-07-08T11:45:51Z) - A Fairness-Oriented Reinforcement Learning Approach for the Operation and Control of Shared Micromobility Services [46.1428063182192]
本研究では,共有マイクロモビリティサービスにおける性能最適化とアルゴリズムフェアネスのバランスについて検討する。
提案手法は,Q-ラーニングを駆使して,Gini指数を用いて等価な結果を得る。
総合データを用いたケーススタディは、私たちの洞察を検証し、都市マイクロモビリティにおける公正の重要性を強調します。
論文 参考訳(メタデータ) (2024-03-23T09:32:23Z) - Conformal Policy Learning for Sensorimotor Control Under Distribution
Shifts [61.929388479847525]
本稿では,センサコントローラの観測値の分布変化を検知・応答する問題に焦点をあてる。
鍵となる考え方は、整合量子を入力として取ることができるスイッチングポリシーの設計である。
本稿では, 基本方針を異なる特性で切り替えるために, 共形量子関数を用いてこのようなポリシーを設計する方法を示す。
論文 参考訳(メタデータ) (2023-11-02T17:59:30Z) - Generative Intrinsic Optimization: Intrinsic Control with Model Learning [5.439020425819001]
将来のシーケンスは、環境へのアクションの実行後の結果を表す。
明示的な成果は、クレジットの割り当てや模倣学習などの異なる目的のために、州、返却、軌跡によって異なりうる。
本稿では、相互情報をシームレスに組み込んだ政策スキームを提案し、最適な政策への収束を確保する。
論文 参考訳(メタデータ) (2023-10-12T07:50:37Z) - An active learning method for solving competitive multi-agent decision-making and control problems [1.2430809884830318]
競合エージェントの集団に対する定常行動プロファイルを特定するための,新しいアクティブラーニング手法を提案する。
提案手法は,典型的なマルチエージェント制御と意思決定問題に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-12-23T19:37:39Z) - A Regularized Implicit Policy for Offline Reinforcement Learning [54.7427227775581]
オフラインの強化学習は、環境とのさらなるインタラクションなしに、固定データセットから学習を可能にする。
フレキシブルだが十分に調整された完全実装ポリシーの学習を支援するフレームワークを提案する。
D4RLデータセットの実験とアブレーション研究により、我々のフレームワークとアルゴリズム設計の有効性が検証された。
論文 参考訳(メタデータ) (2022-02-19T20:22:04Z) - Constructing a Good Behavior Basis for Transfer using Generalized Policy
Updates [63.58053355357644]
そこで我々は,優れた政策集合を学習する問題を考察し,組み合わせることで,目に見えない多種多様な強化学習タスクを解くことができることを示した。
理論的には、独立したポリシーのセットと呼ぶ、特定の多様なポリシーのセットにアクセスできることによって、ハイレベルなパフォーマンスを即時に達成できることが示される。
論文 参考訳(メタデータ) (2021-12-30T12:20:46Z) - Distributed Bayesian Online Learning for Cooperative Manipulation [9.582645137247667]
ベイズ原理を用いた協調操作の模範的タスクのための新しい分散学習フレームワークを提案する。
各エージェントは、局所状態情報のみを使用して、オブジェクトダイナミクスの推定を取得し、キネマティクスを把握する。
対象のダイナミクスと把持キネマティックスの各々の推定には不確実性の尺度が伴うため、高い確率で有界な予測誤差を保証できる。
論文 参考訳(メタデータ) (2021-04-09T13:03:09Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。