論文の概要: Privacy and Trust Redefined in Federated Machine Learning
- arxiv url: http://arxiv.org/abs/2103.15753v2
- Date: Tue, 30 Mar 2021 15:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 12:30:52.998539
- Title: Privacy and Trust Redefined in Federated Machine Learning
- Title(参考訳): フェデレーション機械学習におけるプライバシと信頼の再定義
- Authors: Pavlos Papadopoulos, Will Abramson, Adam J. Hall, Nikolaos Pitropakis
and William J. Buchanan
- Abstract要約: 参加者間の信頼できるフェデレーション学習を容易にするプライバシー保護型分散型ワークフローを紹介します。
適切な当局から発行された認証クレデンシャルを保有する団体のみが、安全で認証された通信チャネルを確立することができる。
- 参考スコア(独自算出の注目度): 5.4475482673944455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common privacy issue in traditional machine learning is that data needs to
be disclosed for the training procedures. In situations with highly sensitive
data such as healthcare records, accessing this information is challenging and
often prohibited. Luckily, privacy-preserving technologies have been developed
to overcome this hurdle by distributing the computation of the training and
ensuring the data privacy to their owners. The distribution of the computation
to multiple participating entities introduces new privacy complications and
risks. In this paper, we present a privacy-preserving decentralised workflow
that facilitates trusted federated learning among participants. Our
proof-of-concept defines a trust framework instantiated using decentralised
identity technologies being developed under Hyperledger projects
Aries/Indy/Ursa. Only entities in possession of Verifiable Credentials issued
from the appropriate authorities are able to establish secure, authenticated
communication channels authorised to participate in a federated learning
workflow related to mental health data.
- Abstract(参考訳): 従来の機械学習における一般的なプライバシー問題は、トレーニング手順のためにデータが開示される必要があることである。
医療記録などの機密性の高いデータを持つ状況では、この情報にアクセスすることは困難であり、しばしば禁止される。
幸いにも、トレーニングの計算を分散し、データプライバシを所有者に保証することで、このハードルを克服するために、プライバシ保護技術が開発されている。
複数の参加するエンティティへの計算の分散は、新しいプライバシーの複雑さとリスクをもたらす。
本稿では、参加者間の信頼された連携学習を容易にするプライバシー保護型分散ワークフローを提案する。
我々の概念実証は、hyperledgerプロジェクトaries/indy/ursaの下で開発された分散id技術を使用してインスタンス化された信頼フレームワークを定義する。
適切な当局から発行された検証済みクレデンシャルを所有するエンティティのみが、メンタルヘルスデータに関連する統合学習ワークフローに参加することが認可された、セキュアで認証された通信チャネルを確立することができる。
関連論文リスト
- Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - A Survey on Blockchain-Based Federated Learning and Data Privacy [1.0499611180329802]
フェデレーテッド・ラーニング(Federated Learning)は、複数のクライアントがローカルな計算能力とモデルの伝達を活用して協力できるようにする、分散機械学習パラダイムである。
一方、フェデレーション学習は、ストレージ、転送、共有に使用されるプライバシー保護機構が欠如しているため、データ漏洩の欠点がある。
この調査は、ブロックチェーンベースのフェデレーション学習アーキテクチャで採用されているさまざまなデータプライバシメカニズムのパフォーマンスとセキュリティを比較することを目的としている。
論文 参考訳(メタデータ) (2023-06-29T23:43:25Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning [7.552100672006174]
我々は、データプライバシ、モデルプライバシ、マルチパーティ機械学習に関連するデータ品質の懸念に対処することに注力する。
データとモデルのプライバシーを確保しつつ、参加者のデータ品質をチェックするプライバシー保護協調学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T08:55:42Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - Secure Byzantine-Robust Machine Learning [61.03711813598128]
本稿では,Byzantine-robustnessとByzantine-robustnessの両方を提供するセキュアな2サーバプロトコルを提案する。
さらに、このプロトコルは通信効率が高く、フォールトトレラントであり、局所的な差分プライバシーを享受する。
論文 参考訳(メタデータ) (2020-06-08T16:55:15Z) - A Distributed Trust Framework for Privacy-Preserving Machine Learning [4.282091426377838]
本稿では,分散エージェント間のピアツーピア信頼を促進するために使用される分散インフラストラクチャについて概説する。
Hyperledger Aries、分散識別子(DID)、検証クレデンシャル(VC)を使用した概念実証について詳述する。
論文 参考訳(メタデータ) (2020-06-03T18:06:13Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z) - PrivacyFL: A simulator for privacy-preserving and secure federated
learning [2.578242050187029]
フェデレートラーニング(Federated Learning)とは、分散クライアントが共同で機械学習モデルを学ぶことを可能にするテクニックである。
PrivacyFLはプライバシ保護とセキュアなフェデレーション学習シミュレータである。
論文 参考訳(メタデータ) (2020-02-19T20:16:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。