論文の概要: Federated Learning and AI Regulation in the European Union: Who is Responsible? -- An Interdisciplinary Analysis
- arxiv url: http://arxiv.org/abs/2407.08105v2
- Date: Fri, 12 Jul 2024 13:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 03:48:26.802430
- Title: Federated Learning and AI Regulation in the European Union: Who is Responsible? -- An Interdisciplinary Analysis
- Title(参考訳): 欧州連合におけるフェデレーション学習とAI規制 : 責任とは何か -- 学際的分析
- Authors: Herbert Woisetschläger, Simon Mertel, Christoph Krönke, Ruben Mayer, Hans-Arno Jacobsen,
- Abstract要約: 欧州連合人工知能法は、機械学習アプリケーションの開発とデプロイにおいて、明確な利害関係者の責任を委任する。
Federated Learningは、データサイロを越えた生成AIモデルのトレーニングを可能にし、データセキュリティを改善しながら、モデルパラメータのみを共有する。
私たちの仕事は、双方の役割を明確にすることに貢献し、責任をサーバオペレータにシフトするための戦略を説明し、オープンな技術的課題を指摘します。
- 参考スコア(独自算出の注目度): 12.098213443468346
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The European Union Artificial Intelligence Act mandates clear stakeholder responsibilities in developing and deploying machine learning applications to avoid substantial fines, prioritizing private and secure data processing with data remaining at its origin. Federated Learning (FL) enables the training of generative AI Models across data siloes, sharing only model parameters while improving data security. Since FL is a cooperative learning paradigm, clients and servers naturally share legal responsibility in the FL pipeline. Our work contributes to clarifying the roles of both parties, explains strategies for shifting responsibilities to the server operator, and points out open technical challenges that we must solve to improve FL's practical applicability under the EU AI Act.
- Abstract(参考訳): 欧州連合人工知能法(EU)は、膨大な罰金を回避するため、機械学習アプリケーションの開発とデプロイにおけるステークホルダーの明確な責任を委任し、その起源にあるデータによるプライベートでセキュアなデータ処理を優先する。
フェデレートラーニング(FL)は、データサイロを越えた生成AIモデルのトレーニングを可能にし、データセキュリティを改善しながらモデルパラメータのみを共有する。
FLは協調学習パラダイムであるため、クライアントとサーバはFLパイプラインにおける法的責任を自然に共有する。
我々の仕事は、双方の役割を明確にし、責任をサーバオペレータに移すための戦略を説明し、EU AI法の下でFLの実践的適用性を改善するために解決しなければならない、オープンな技術的課題を指摘している。
関連論文リスト
- Federated TrustChain: Blockchain-Enhanced LLM Training and Unlearning [22.33179965773829]
大規模言語モデル(LLM)のためのブロックチェーンベースの新しいフェデレーション学習フレームワークを提案する。
我々のフレームワークはブロックチェーン技術を活用して、各モデルのコントリビューションの改ざん防止記録を作成し、フェデレートされた学習メカニズムをシームレスに統合する革新的なアンラーニング機能を導入しています。
論文 参考訳(メタデータ) (2024-06-06T13:44:44Z) - Personalized Wireless Federated Learning for Large Language Models [75.22457544349668]
大規模言語モデル(LLM)は自然言語処理タスクに革命をもたらした。
無線ネットワークへの展開は、プライバシとセキュリティ保護機構の欠如など、依然として課題に直面している。
通信オーバーヘッドの少ない2つのパーソナライズされた無線フェデレーションファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-04-20T02:30:21Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - When Foundation Model Meets Federated Learning: Motivations, Challenges,
and Future Directions [47.00147534252281]
ファンデーションモデル(FM)とフェデレートラーニング(FL)の交差は相互に利益をもたらす。
FLは、FMデータの可用性を拡張し、計算共有、トレーニングプロセスの分散、FL参加者の負担軽減を可能にする。
一方、FMは、その巨大さ、事前訓練された知識、および例外的な性能により、FLの堅牢な出発点として機能する。
論文 参考訳(メタデータ) (2023-06-27T15:15:55Z) - Federated Learning for Non-IID Data via Client Variance Reduction and
Adaptive Server Update [5.161531917413708]
フェデレーテッド・ラーニング(FL)は、グローバルな機械学習モデルを協調訓練するために使われる新興技術である。
FLの実践的実装の主な障害は、ユーザ間での非独立性およびIdentical(Non-IID)データ分散である。
クライアント側とサーバ側の両方でのトレーニングプロセス全体を強化する手法(ComFed)を提案する。
論文 参考訳(メタデータ) (2022-07-18T05:58:19Z) - Blockchain-based Trustworthy Federated Learning Architecture [16.062545221270337]
ブロックチェーンベースの信頼できるフェデレーション学習アーキテクチャを提案する。
まず、説明責任を実現するために、スマートコントラクトベースのデータモデル証明レジストリを設計する。
また、トレーニングデータの公平性を高めるために、重み付き公正データサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T06:13:58Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。