論文の概要: Privacy and Trust Redefined in Federated Machine Learning
- arxiv url: http://arxiv.org/abs/2103.15753v2
- Date: Tue, 30 Mar 2021 15:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 12:30:52.998539
- Title: Privacy and Trust Redefined in Federated Machine Learning
- Title(参考訳): フェデレーション機械学習におけるプライバシと信頼の再定義
- Authors: Pavlos Papadopoulos, Will Abramson, Adam J. Hall, Nikolaos Pitropakis
and William J. Buchanan
- Abstract要約: 参加者間の信頼できるフェデレーション学習を容易にするプライバシー保護型分散型ワークフローを紹介します。
適切な当局から発行された認証クレデンシャルを保有する団体のみが、安全で認証された通信チャネルを確立することができる。
- 参考スコア(独自算出の注目度): 5.4475482673944455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common privacy issue in traditional machine learning is that data needs to
be disclosed for the training procedures. In situations with highly sensitive
data such as healthcare records, accessing this information is challenging and
often prohibited. Luckily, privacy-preserving technologies have been developed
to overcome this hurdle by distributing the computation of the training and
ensuring the data privacy to their owners. The distribution of the computation
to multiple participating entities introduces new privacy complications and
risks. In this paper, we present a privacy-preserving decentralised workflow
that facilitates trusted federated learning among participants. Our
proof-of-concept defines a trust framework instantiated using decentralised
identity technologies being developed under Hyperledger projects
Aries/Indy/Ursa. Only entities in possession of Verifiable Credentials issued
from the appropriate authorities are able to establish secure, authenticated
communication channels authorised to participate in a federated learning
workflow related to mental health data.
- Abstract(参考訳): 従来の機械学習における一般的なプライバシー問題は、トレーニング手順のためにデータが開示される必要があることである。
医療記録などの機密性の高いデータを持つ状況では、この情報にアクセスすることは困難であり、しばしば禁止される。
幸いにも、トレーニングの計算を分散し、データプライバシを所有者に保証することで、このハードルを克服するために、プライバシ保護技術が開発されている。
複数の参加するエンティティへの計算の分散は、新しいプライバシーの複雑さとリスクをもたらす。
本稿では、参加者間の信頼された連携学習を容易にするプライバシー保護型分散ワークフローを提案する。
我々の概念実証は、hyperledgerプロジェクトaries/indy/ursaの下で開発された分散id技術を使用してインスタンス化された信頼フレームワークを定義する。
適切な当局から発行された検証済みクレデンシャルを所有するエンティティのみが、メンタルヘルスデータに関連する統合学習ワークフローに参加することが認可された、セキュアで認証された通信チャネルを確立することができる。
関連論文リスト
- NeurIPS 2023 Competition: Privacy Preserving Federated Learning Document VQA [49.74911193222192]
このコンペティションでは、関連する質問や回答とともに、本物の請求書文書のデータセットが導入された。
ベースモデルは多モード生成言語モデルであり、視覚的またはテキスト的入力モダリティによってセンシティブな情報を公開することができる。
参加者は最小限の効用閾値を維持しながら通信コストを削減するエレガントなソリューションを提案した。
論文 参考訳(メタデータ) (2024-11-06T07:51:19Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - Lancelot: Towards Efficient and Privacy-Preserving Byzantine-Robust Federated Learning within Fully Homomorphic Encryption [10.685816010576918]
我々は,データプライバシを保ちながら悪意あるクライアント活動を保護するために,完全同型暗号化(FHE)を利用する,革新的で計算効率のよいBRFLフレームワークであるLancelotを提案する。
医用画像診断や広く使われている公開画像データセットを含む大規模なテストでは、Lancelotが既存の手法を著しく上回り、データのプライバシを維持しながら、処理速度を20倍以上に向上させています。
論文 参考訳(メタデータ) (2024-08-12T14:48:25Z) - A Survey on Blockchain-Based Federated Learning and Data Privacy [1.0499611180329802]
フェデレーテッド・ラーニング(Federated Learning)は、複数のクライアントがローカルな計算能力とモデルの伝達を活用して協力できるようにする、分散機械学習パラダイムである。
一方、フェデレーション学習は、ストレージ、転送、共有に使用されるプライバシー保護機構が欠如しているため、データ漏洩の欠点がある。
この調査は、ブロックチェーンベースのフェデレーション学習アーキテクチャで採用されているさまざまなデータプライバシメカニズムのパフォーマンスとセキュリティを比較することを目的としている。
論文 参考訳(メタデータ) (2023-06-29T23:43:25Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - Secure Byzantine-Robust Machine Learning [61.03711813598128]
本稿では,Byzantine-robustnessとByzantine-robustnessの両方を提供するセキュアな2サーバプロトコルを提案する。
さらに、このプロトコルは通信効率が高く、フォールトトレラントであり、局所的な差分プライバシーを享受する。
論文 参考訳(メタデータ) (2020-06-08T16:55:15Z) - A Distributed Trust Framework for Privacy-Preserving Machine Learning [4.282091426377838]
本稿では,分散エージェント間のピアツーピア信頼を促進するために使用される分散インフラストラクチャについて概説する。
Hyperledger Aries、分散識別子(DID)、検証クレデンシャル(VC)を使用した概念実証について詳述する。
論文 参考訳(メタデータ) (2020-06-03T18:06:13Z) - PrivacyFL: A simulator for privacy-preserving and secure federated
learning [2.578242050187029]
フェデレートラーニング(Federated Learning)とは、分散クライアントが共同で機械学習モデルを学ぶことを可能にするテクニックである。
PrivacyFLはプライバシ保護とセキュアなフェデレーション学習シミュレータである。
論文 参考訳(メタデータ) (2020-02-19T20:16:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。