論文の概要: Private Knowledge Sharing in Distributed Learning: A Survey
- arxiv url: http://arxiv.org/abs/2402.06682v1
- Date: Thu, 8 Feb 2024 07:18:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 19:56:26.608404
- Title: Private Knowledge Sharing in Distributed Learning: A Survey
- Title(参考訳): 分散学習における個人の知識共有:調査
- Authors: Yasas Supeksala, Dinh C. Nguyen, Ming Ding, Thilina Ranbaduge, Calson
Chua, Jun Zhang, Jun Li and H. Vincent Poor
- Abstract要約: 人工知能の台頭は多くの産業に革命をもたらし、社会の働き方を変えた。
異なるエンティティが分散または所有する学習プロセスにおいて、情報を活用することが不可欠である。
現代のデータ駆動サービスは、分散知識エンティティを結果に統合するために開発されています。
- 参考スコア(独自算出の注目度): 50.51431815732716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of Artificial Intelligence (AI) has revolutionized numerous
industries and transformed the way society operates. Its widespread use has led
to the distribution of AI and its underlying data across many intelligent
systems. In this light, it is crucial to utilize information in learning
processes that are either distributed or owned by different entities. As a
result, modern data-driven services have been developed to integrate
distributed knowledge entities into their outcomes. In line with this goal, the
latest AI models are frequently trained in a decentralized manner. Distributed
learning involves multiple entities working together to make collective
predictions and decisions. However, this collaboration can also bring about
security vulnerabilities and challenges. This paper provides an in-depth survey
on private knowledge sharing in distributed learning, examining various
knowledge components utilized in leading distributed learning architectures.
Our analysis sheds light on the most critical vulnerabilities that may arise
when using these components in a distributed setting. We further identify and
examine defensive strategies for preserving the privacy of these knowledge
components and preventing malicious parties from manipulating or accessing the
knowledge information. Finally, we highlight several key limitations of
knowledge sharing in distributed learning and explore potential avenues for
future research.
- Abstract(参考訳): 人工知能(AI)の台頭は多くの産業に革命をもたらし、社会の働き方を変えた。
その普及した使用により、AIとその基盤となるデータが多くのインテリジェントシステムに分散するようになった。
この光の中では、異なるエンティティが分散または所有する学習プロセスにおいて、情報を活用することが不可欠である。
その結果、分散知識エンティティを結果に統合するために、現代的なデータ駆動サービスが開発された。
この目標に沿って、最新のAIモデルは、分散的な方法で頻繁に訓練される。
分散学習には、複数のエンティティが協力して予測と決定を行う。
しかし、このコラボレーションはセキュリティの脆弱性や課題をもたらす可能性がある。
本稿では,分散学習における個人知識共有に関する詳細な調査を行い,主要な分散学習アーキテクチャで活用されている各種知識コンポーネントについて検討する。
当社の分析は、分散環境でこれらのコンポーネントを使用する場合に発生する、最も重要な脆弱性を浮き彫りにしている。
さらに,これらの知識要素のプライバシーを守るための防御戦略を特定し,検証し,悪意のある当事者による知識情報の操作やアクセスを防止する。
最後に,分散学習における知識共有のいくつかの重要な限界を強調し,今後の研究への可能性を探る。
関連論文リスト
- Permissible Knowledge Pooling [0.0]
本稿では,知識プーリングと共有のための新しいモーダル論理を提案する。
また、それらの公理化の概要を述べ、許容可能な知識プールのための潜在的なフレームワークについて論じている。
論文 参考訳(メタデータ) (2024-04-04T12:51:28Z) - Exploring Machine Learning Models for Federated Learning: A Review of
Approaches, Performance, and Limitations [1.1060425537315088]
フェデレートラーニング(Federated Learning)は、個人のデータのプライバシを保護するために強化された分散学習フレームワークである。
危機時には、リアルタイムな意思決定が重要である場合、フェデレートされた学習は、機密データを共有せずに複数のエンティティをまとめて機能させることができる。
本稿では,ここ数年のプライバシ保護機械学習に関する文献を体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-17T19:23:21Z) - Quiz-based Knowledge Tracing [61.9152637457605]
知識追跡は、学習相互作用に基づいて個人の進化する知識状態を評価することを目的としている。
QKTは、既存の方法と比較して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-05T12:48:42Z) - Knowledge-augmented Deep Learning and Its Applications: A Survey [60.221292040710885]
知識強化ディープラーニング(KADL)は、ドメイン知識を特定し、それをデータ効率、一般化可能、解釈可能なディープラーニングのためのディープモデルに統合することを目的としている。
本調査は,既存の研究成果を補足し,知識強化深層学習の一般分野における鳥眼研究の展望を提供する。
論文 参考訳(メタデータ) (2022-11-30T03:44:15Z) - Combined Federated and Split Learning in Edge Computing for Ubiquitous
Intelligence in Internet of Things: State of the Art and Future Directions [1.8259323824078306]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、IoT(Internet of Things)におけるユビキタスインテリジェンスを大幅に促進する2つの新しいコラボレーティブラーニング手法である。
フェデレートラーニングと分割ラーニングの最新の展開をレビューし、エッジコンピューティングベースのIoT環境においてこれらの2つのラーニング手法を組み合わせるための最先端技術について調査する。
論文 参考訳(メタデータ) (2022-07-20T01:31:22Z) - Informed Learning by Wide Neural Networks: Convergence, Generalization
and Sampling Complexity [27.84415856657607]
ドメイン知識が情報学習のパフォーマンスにどのような影響を及ぼすか、なぜ研究する。
本稿では,知識の利点をうまく活用し,ラベルと知識の不完全性のバランスをとるための,汎用的な情報教育目標を提案する。
論文 参考訳(メタデータ) (2022-07-02T06:28:25Z) - From Distributed Machine Learning to Federated Learning: A Survey [49.7569746460225]
分散学習は、分散データとコンピューティングリソースを利用するための効率的なアプローチとして現れる。
本論文では,連合学習システムの機能構造と関連手法の分類法を提案する。
本稿では,flシステムの分散トレーニング,データ通信,セキュリティについて述べる。
論文 参考訳(メタデータ) (2021-04-29T14:15:11Z) - A Federated Learning Framework in Smart Grid: Securing Power Traces in
Collaborative Learning [7.246377480492976]
本稿では,個別の電力トレースを漏らすことなく,消費電力パターンの協調機械学習を実現するスマートグリッドの連合学習フレームワークを提案する。
ケーススタディによると、Paillierのような適切な暗号化方式では、提案されたフレームワークから構築された機械学習モデルは、損失がなく、プライバシーを保ち、効果的である。
論文 参考訳(メタデータ) (2021-03-22T14:06:21Z) - Federated and continual learning for classification tasks in a society
of devices [59.45414406974091]
Light Federated and Continual Consensus (LFedCon2)は、軽量で伝統的な学習者を用いた新しいフェデレーションおよび継続アーキテクチャである。
我々の方法では、スマートフォンやロボットのような無力デバイスが、リアルタイムで、ローカルで、継続的に、自律的に、そしてユーザーから学習することができる。
提案手法をスマートフォン利用者の異種コミュニティに適用し,歩行認識の課題を解決した。
論文 参考訳(メタデータ) (2020-06-12T12:37:03Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。