論文の概要: Distribution-Aware Compensation Design for Sustainable Data Rights in Machine Learning
- arxiv url: http://arxiv.org/abs/2410.15045v2
- Date: Thu, 24 Oct 2024 01:25:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:52:20.347723
- Title: Distribution-Aware Compensation Design for Sustainable Data Rights in Machine Learning
- Title(参考訳): 機械学習におけるサステナブルデータ権利のための配電意識補償設計
- Authors: Jiaqi Shao, Tao Lin, Bing Luo,
- Abstract要約: 本稿では,この課題をゲーム理論のレンズを通して見る革新的なメカニズムを提案する。
本手法は,包括的解析モデルによるデータ除去の波及効果を定量的に評価する。
我々は,主観的効用とシステム成果を測定する数学的基盤を確立する。
- 参考スコア(独自算出の注目度): 6.322978909154803
- License:
- Abstract: Modern distributed learning systems face a critical challenge when clients request the removal of their data influence from trained models, as this process can significantly destabilize system performance and affect remaining participants. We propose an innovative mechanism that views this challenge through the lens of game theory, establishing a leader-follower framework where a central coordinator provides strategic incentives to maintain system stability during data removal operations. Our approach quantifies the ripple effects of data removal through a comprehensive analytical model that captures both system-wide and participant-specific impacts. We establish mathematical foundations for measuring participant utility and system outcomes, revealing critical insights into how data diversity influences both individual decisions and overall system stability. The framework incorporates a computationally efficient solution method that addresses the inherent complexity of optimizing participant interactions and resource allocation.
- Abstract(参考訳): 現代の分散学習システムは、クライアントがトレーニングされたモデルからデータの影響を取り除くことを要求した場合、システムパフォーマンスを著しく不安定にし、残りの参加者に影響を与えるため、重要な課題に直面します。
我々は,この課題をゲーム理論のレンズを通して捉え,中央コーディネータがデータ削除操作中にシステムの安定性を維持する戦略的インセンティブを提供する,リーダ・フォロワー・フレームワークを確立する革新的なメカニズムを提案する。
本手法は,システム全体および参加者固有の影響の両方をキャプチャする包括的解析モデルを用いて,データ除去の波及効果を定量化する。
我々は,データ多様性が個々の決定とシステム全体の安定性の両方にどのように影響するかに関する重要な洞察を明らかにするとともに,参加者の効用とシステム成果を測定するための数学的基盤を確立する。
このフレームワークには計算効率のよい解法が組み込まれており、参加者の相互作用とリソース割り当てを最適化する固有の複雑さに対処する。
関連論文リスト
- Meta-Learning for Speeding Up Large Model Inference in Decentralized Environments [17.309238729647287]
分散AIシステムにおける推論促進のためのメタラーニングベースのフレームワークを提案する。
従来の手法とは異なり,本フレームワークは各タスクの特徴に基づいて,最適な加速度戦略を体系的に同定する。
我々の結果は、分散AIシステムにおける推論加速に革命をもたらすメタラーニングの可能性を強調した。
論文 参考訳(メタデータ) (2024-10-28T04:29:16Z) - DPVS-Shapley:Faster and Universal Contribution Evaluation Component in Federated Learning [1.740992908651449]
動的Pruning Validation Set Shapley (DPVS-Shapley) というコンポーネントを導入する。
本手法は, 評価精度を損なうことなく, 元のデータセットを動的に刈り取ることにより, コントリビューション評価プロセスの高速化を図る。
論文 参考訳(メタデータ) (2024-10-19T13:01:44Z) - Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - On the Federated Learning Framework for Cooperative Perception [28.720571541022245]
フェデレーション学習は、コネクテッドおよび自律走行車間の認識、意思決定、計画において、データのプライバシ保護と協調的な拡張を可能にすることで、有望なソリューションを提供する。
本研究では,FedDWAアルゴリズム(Federated dynamic weighted aggregate, FedDWA)と呼ばれる,CPのための特殊な統合学習フレームワークを提案する。
このフレームワークは、動的クライアント重み付けをモデル収束の直接化に利用し、KLD(Kullback-Leibler divergence)を利用して非独立的かつ同一に分散された(Non-IID)データとアンバランスなデータの有害な影響を対処する新しい損失関数を統合する。
論文 参考訳(メタデータ) (2024-04-26T04:34:45Z) - Towards Independence Criterion in Machine Unlearning of Features and
Labels [9.790684060172662]
この研究は、分散シフトに直面した機械学習の複雑さを掘り下げるものだ。
本研究は、これらの課題に対処するために、影響関数と分布独立の原理を活用する新しいアプローチを導入する。
提案手法は, 効率的なデータ除去を容易にするだけでなく, モデルを動的に調整し, 一般化機能を維持する。
論文 参考訳(メタデータ) (2024-03-12T23:21:09Z) - Analyzing Operator States and the Impact of AI-Enhanced Decision Support
in Control Rooms: A Human-in-the-Loop Specialized Reinforcement Learning
Framework for Intervention Strategies [0.9378955659006951]
複雑な産業・化学プロセス制御室では、安全性と効率性に効果的な意思決定が不可欠である。
本稿では,AIに基づく意思決定支援システムが人間と機械のインタフェース改善に取り入れた影響と応用について検討する。
論文 参考訳(メタデータ) (2024-02-20T18:31:27Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - The Impact of Data on the Stability of Learning-Based Control- Extended
Version [63.97366815968177]
本稿では,Lyapunovをベースとした,認証制御性能に対するデータの影響の定量化手法を提案する。
ガウス過程を通じて未知系の力学をモデル化することにより、モデルの不確実性と安定性条件の満足度の間の相互関係を決定できる。
論文 参考訳(メタデータ) (2020-11-20T19:10:01Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。