論文の概要: iDML: Incentivized Decentralized Machine Learning
- arxiv url: http://arxiv.org/abs/2304.05354v1
- Date: Mon, 10 Apr 2023 17:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 14:08:34.869786
- Title: iDML: Incentivized Decentralized Machine Learning
- Title(参考訳): iDML: インセンティブ付き分散機械学習
- Authors: Haoxiang Yu, Hsiao-Yuan Chen, Sangsu Lee, Sriram Vishwanath, Xi Zheng,
Christine Julien
- Abstract要約: 我々は、完全に分散化され、機会論的学習アーキテクチャのための、ブロックチェーンベースの新しいインセンティブメカニズムを提案する。
我々は、エンドデバイスへの明確なインセンティブを提供するだけでなく、学習アーキテクチャの振る舞いを検査し、反映する完全に分散化されたメカニズムを構築するために、スマートコントラクトを活用しています。
- 参考スコア(独自算出の注目度): 16.31868012716559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rising emergence of decentralized and opportunistic approaches to
machine learning, end devices are increasingly tasked with training deep
learning models on-devices using crowd-sourced data that they collect
themselves. These approaches are desirable from a resource consumption
perspective and also from a privacy preservation perspective. When the devices
benefit directly from the trained models, the incentives are implicit -
contributing devices' resources are incentivized by the availability of the
higher-accuracy model that results from collaboration. However, explicit
incentive mechanisms must be provided when end-user devices are asked to
contribute their resources (e.g., computation, communication, and data) to a
task performed primarily for the benefit of others, e.g., training a model for
a task that a neighbor device needs but the device owner is uninterested in. In
this project, we propose a novel blockchain-based incentive mechanism for
completely decentralized and opportunistic learning architectures. We leverage
a smart contract not only for providing explicit incentives to end devices to
participate in decentralized learning but also to create a fully decentralized
mechanism to inspect and reflect on the behavior of the learning architecture.
- Abstract(参考訳): マシンラーニングに対する分散的かつ機会主義的なアプローチの台頭により、エンドユーザは、自身が収集するクラウドソースデータを使用して、デバイス上でディープラーニングモデルをトレーニングする作業がますます進んでいる。
これらのアプローチは、リソース消費の観点からも、プライバシー保護の観点からも望ましい。
デバイスがトレーニングされたモデルから直接利益を得る場合、インセンティブは暗黙的な貢献であり、デバイスのリソースはコラボレーションの結果生じる高精度モデルが利用可能であることによってインセンティブを得る。
しかし、エンドユーザーデバイスがリソース(例えば、計算、通信、データ)を、主に他人の利益のために実行されたタスクに貢献するよう要求された場合、例えば、隣のデバイスが必要とするタスクのモデルを訓練するなど、明示的なインセンティブメカニズムが提供されなければならない。
本稿では,ブロックチェーンを基盤とした,完全分散型かつ機会論的学習アーキテクチャのための新たなインセンティブ機構を提案する。
スマートコントラクトは、エンドデバイスが分散学習に参加するための明確なインセンティブを提供するだけでなく、学習アーキテクチャの振る舞いを検査し、反映するための完全に分散化されたメカニズムを作成するためにも活用します。
関連論文リスト
- Uncertainty Estimation in Multi-Agent Distributed Learning [0.0]
KDT NEUROKIT2Eプロジェクトは、エッジデバイス上のAIアプリケーションを容易にするための、新たなオープンソースフレームワークを確立することを目的としている。
本研究は,エッジネットワーク対応エージェントが分散環境における協調学習に携わることを可能にするメカニズムと方法論に焦点をあてる。
論文 参考訳(メタデータ) (2023-11-22T12:48:20Z) - PredictChain: Empowering Collaboration and Data Accessibility for AI in
a Decentralized Blockchain-based Marketplace [1.4364491422470593]
予測機械学習モデルのためのブロックチェーンベースのマーケットプレース"PredictChain"を提案する。
このマーケットプレースは、予測機械学習モデルをトレーニングするためのデータセットのアップロード、以前にアップロードされたデータセットの要求モデルトレーニング、トレーニングされたモデルへのクエリの提出を可能にする。
論文 参考訳(メタデータ) (2023-07-27T19:56:18Z) - IoT Federated Blockchain Learning at the Edge [14.689706366051956]
我々は、IoTデバイスのための分散フェデレーション学習フレームワーク、特にIoMT(Internet of Medical Things)について提案する。
ブロックチェーンを使用して、中央集権システム上でのプライバシと効率を改善する分散型スキームを可能にします。
1) プライバシを確保するためにデータセットから学習を分離しながら、共有モデルの協調的なトレーニングを可能にするために、IoTデバイス上でニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2023-04-06T11:32:40Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Motivating Learners in Multi-Orchestrator Mobile Edge Learning: A
Stackelberg Game Approach [54.28419430315478]
Mobile Edge Learningは、異種エッジデバイス上で機械学習モデルの分散トレーニングを可能にする。
MELでは、十分なトレーニングデータやコンピューティングリソースを入手することなく、トレーニング性能が低下する。
そこで我々は2ラウンドのStackelbergゲームとしてオーケストレータとラーナーの相互作用を定式化するインセンティブ機構を提案する。
論文 参考訳(メタデータ) (2021-09-25T17:27:48Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - An Incentive-Based Mechanism for Volunteer Computing using Blockchain [13.348848214843345]
この記事では、ボランティアコンピューティングを通じてブロックチェーン可能なリソース共有とサービスソリューションを紹介します。
提案したソリューションは、高い報酬分布、ブロックチェーン生成数の増加、遅延の低減、リソース使用量のバランスを実現することができる。
論文 参考訳(メタデータ) (2020-09-24T18:48:22Z) - An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach [75.08185720590748]
Federated Learning(FL)は、機械学習の分散問題に対処できる分散学習フレームワークである。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
我々は,BSとモバイルユーザの間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
論文 参考訳(メタデータ) (2020-09-22T01:50:39Z) - Trading Data For Learning: Incentive Mechanism For On-Device Federated
Learning [25.368195601622688]
フェデレートラーニング(Federated Learning)とは、さまざまなデバイスに分散したグローバルモデルのトレーニングの概念である。
この設定では、ユーザのデバイスが自身のデータ上で計算を行い、その結果をクラウドサーバと共有し、グローバルモデルを更新します。
ユーザは、フェデレートされたモデルトレーニングプロセス中に、ローカルデータのプライバシリークに悩まされる。
本稿では、信頼性の高いデータを提供する可能性の高いユーザを選択し、プライバシリークのコストを補償する効果的なインセンティブメカニズムを提案する。
論文 参考訳(メタデータ) (2020-09-11T18:37:58Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z) - Resource Management for Blockchain-enabled Federated Learning: A Deep
Reinforcement Learning Approach [54.29213445674221]
Federated Learning (BFL)は、機械学習モデル所有者(MLMO)が必要とするニューラルネットワークモデルを、モバイルデバイスが協調的にトレーニングすることを可能にする。
BFLの問題は、モバイルデバイスがシステムの寿命とトレーニング効率を低下させるエネルギーとCPUの制約を持っていることである。
我々は,Deep Reinforcement Learning (DRL) を用いて最適決定を導出することを提案する。
論文 参考訳(メタデータ) (2020-04-08T16:29:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。