論文の概要: Federated Learning Priorities Under the European Union Artificial
Intelligence Act
- arxiv url: http://arxiv.org/abs/2402.05968v1
- Date: Mon, 5 Feb 2024 19:52:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 14:06:01.661045
- Title: Federated Learning Priorities Under the European Union Artificial
Intelligence Act
- Title(参考訳): 欧州連合人工知能法に基づく連邦学習優先事項
- Authors: Herbert Woisetschl\"ager, Alexander Erben, Bill Marino, Shiqiang Wang,
Nicholas D. Lane, Ruben Mayer, Hans-Arno Jacobsen
- Abstract要約: 我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
- 参考スコア(独自算出の注目度): 68.44894319552114
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The age of AI regulation is upon us, with the European Union Artificial
Intelligence Act (AI Act) leading the way. Our key inquiry is how this will
affect Federated Learning (FL), whose starting point of prioritizing data
privacy while performing ML fundamentally differs from that of centralized
learning. We believe the AI Act and future regulations could be the missing
catalyst that pushes FL toward mainstream adoption. However, this can only
occur if the FL community reprioritizes its research focus. In our position
paper, we perform a first-of-its-kind interdisciplinary analysis (legal and ML)
of the impact the AI Act may have on FL and make a series of observations
supporting our primary position through quantitative and qualitative analysis.
We explore data governance issues and the concern for privacy. We establish new
challenges regarding performance and energy efficiency within lifecycle
monitoring. Taken together, our analysis suggests there is a sizable
opportunity for FL to become a crucial component of AI Act-compliant ML systems
and for the new regulation to drive the adoption of FL techniques in general.
Most noteworthy are the opportunities to defend against data bias and enhance
private and secure computation
- Abstract(参考訳): AI規制の時代は、EUの人工知能法(AI Act)が先導している。
私たちの重要な質問は、mlを実行しながらデータのプライバシを優先順位付けする出発点が集中型学習と根本的に異なるフェデレーション学習(fl)にどのように影響するかです。
私たちは、ai法と今後の規制がflを主流採用に向けて推進する欠如の触媒になると信じています。
しかし、これはflコミュニティが研究の焦点を再優先する場合にのみ起こりうる。
本稿では,ai法がflに与える影響について,初歩的な学際的分析 (legal and ml) を行い,定量的・定性的分析により,我々の初歩的立場を支持する一連の観察を行った。
データガバナンスの問題とプライバシーに関する懸念について検討する。
ライフサイクルモニタリングにおける性能とエネルギー効率に関する新たな課題を確立する。
まとめて分析すると、FLがAI Actに準拠したMLシステムの重要なコンポーネントとなり、FL技術の採用を促進するための新たな規制が実現される可能性が示唆されている。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Federated Learning and AI Regulation in the European Union: Who is Responsible? -- An Interdisciplinary Analysis [12.098213443468346]
欧州連合人工知能法は、機械学習アプリケーションの開発とデプロイにおいて、明確な利害関係者の責任を委任する。
Federated Learningは、データサイロを越えた生成AIモデルのトレーニングを可能にし、データセキュリティを改善しながら、モデルパラメータのみを共有する。
私たちの仕事は、双方の役割を明確にすることに貢献し、責任をサーバオペレータにシフトするための戦略を説明し、オープンな技術的課題を指摘します。
論文 参考訳(メタデータ) (2024-07-11T00:41:16Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Towards Interpretable Federated Learning [19.764172768506132]
フェデレートラーニング(FL)は、複数のデータ所有者が、プライベートなローカルデータを公開せずに、協調して機械学習モデルを構築することを可能にする。
特に金融や医療といったミッションクリティカルなアプリケーションにおいて、パフォーマンス、プライバシ保護、解釈可能性の必要性のバランスをとることが重要です。
我々は、代表的IFL手法、一般的に採用されている性能評価指標、多目的IFL技術構築に向けた有望な方向性を包括的に分析する。
論文 参考訳(メタデータ) (2023-02-27T02:06:18Z) - Towards an Accountable and Reproducible Federated Learning: A FactSheets
Approach [6.488712018186561]
フェデレートラーニング(FL)は、分散データとプライベートデータに基づくモデルの共有トレーニングのための新しいパラダイムである。
AF2 Frameworkを導入し、検証可能なクレームと暗黙の事実を融合することにより、FLを説明責任で実装する。
AIライフサイクルに透明性と信頼性を注入するためのAI FactSheetsを構築しています。
論文 参考訳(メタデータ) (2022-02-25T00:34:14Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。