論文の概要: Challenges of Trustworthy Federated Learning: What's Done, Current Trends and Remaining Work
- arxiv url: http://arxiv.org/abs/2507.15796v1
- Date: Mon, 21 Jul 2025 16:57:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.494101
- Title: Challenges of Trustworthy Federated Learning: What's Done, Current Trends and Remaining Work
- Title(参考訳): 信頼できるフェデレーションラーニングの課題 - 成果、現在の傾向、仕事の継続
- Authors: Nuria Rodríguez-Barroso, Mario García-Márquez, M. Victoria Luzón, Francisco Herrera,
- Abstract要約: 信頼できる人工知能(TAI)の開発は、AIシステムの展開において重要な目標として浮上している。
フェデレートラーニング(FL)は、プライバシーの懸念に対処する有望なソリューションである。
しかし、FLとTAIの他の要件とを合わせることは、一連の課題を提起する。
- 参考スコア(独自算出の注目度): 7.8973037023478785
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, the development of Trustworthy Artificial Intelligence (TAI) has emerged as a critical objective in the deployment of AI systems across sensitive and high-risk domains. TAI frameworks articulate a comprehensive set of ethical, legal, and technical requirements to ensure that AI technologies are aligned with human values, rights, and societal expectations. Among the various AI paradigms, Federated Learning (FL) presents a promising solution to pressing privacy concerns. However, aligning FL with the rest of the requirements of TAI presents a series of challenges, most of which arise from its inherently distributed nature. In this work, we adopt the requirements TAI as a guiding structure to systematically analyze the challenges of adapting FL to TAI. Specifically, we classify and examine the key obstacles to aligning FL with TAI, providing a detailed exploration of what has been done, the trends, and the remaining work within each of the identified challenges.
- Abstract(参考訳): 近年、TAI(Trustworthy Artificial Intelligence)の開発が、センシティブで高リスクなドメインにAIシステムを配置する上で重要な目標として浮上している。
TAIフレームワークは、AI技術が人間の価値、権利、社会的期待と一致していることを保証するために、倫理的、法的、技術的要求の包括的なセットを記述している。
さまざまなAIパラダイムの中で、フェデレートラーニング(FL)は、プライバシーの懸念を抑えるための有望なソリューションを提供する。
しかし、FL と TAI の他の要件の整合性は、その本質的に分散した性質から生じる一連の課題を提起する。
本研究では,FLをTAIに適用する際の課題を体系的に分析する上で,要件TAIを指針構造として採用する。
具体的には、FLをTAIに整合させる上で重要な障害を分類し、調査し、それぞれの課題の中で何がされたのか、トレンド、そして残りの作業について詳細に調査する。
関連論文リスト
- Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Diversity and Inclusion in AI: Insights from a Survey of AI/ML Practitioners [4.761639988815896]
人工知能(AI)システムに埋め込まれた社会的バイアスや不平等に対する認識が高まり、AIライフサイクル全体を通して多様性と包摂性(D&I)の原則の統合に注意が向けられている。
倫理的AIガイドラインの台頭にもかかわらず、現実世界の環境でのD&Iの適用方法に関する実証的な証拠は限られている。
この研究は、AIと機械学習(ML)の実践者がD&Iの原則をどう理解し、実践し、効果的導入を妨げる組織的課題を特定するかを探る。
論文 参考訳(メタデータ) (2025-05-24T05:40:23Z) - Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - TOAST Framework: A Multidimensional Approach to Ethical and Sustainable AI Integration in Organizations [0.38073142980732994]
本稿では,TOAST(Trustworthy,Optimized,Adaptable,Socio-Technologically harmonious)フレームワークを紹介する。
信頼性、説明責任、技術的進歩、適応性、社会技術的調和に焦点を当てている。
医療ケーススタディにおけるTOASTフレームワークの基盤として,本論文は,その実用性と理論的健全性について,頑健な評価を提供する。
論文 参考訳(メタデータ) (2025-01-07T05:13:39Z) - The Journey to Trustworthy AI: Pursuit of Pragmatic Frameworks [0.0]
本稿では,信頼に値する人工知能(TAI)とその様々な定義についてレビューする。
我々は、TAIの代わりにResponsibleやEthical AIといった用語を使うことに反対する。
代わりに、フェアネス、バイアス、リスク、セキュリティ、説明可能性、信頼性といった重要な属性や特性に対処するアプローチを提唱します。
論文 参考訳(メタデータ) (2024-03-19T08:27:04Z) - Developing and Deploying Industry Standards for Artificial Intelligence in Education (AIED): Challenges, Strategies, and Future Directions [22.65961106637345]
AIED(Artificial Intelligence in Education)は、教育実践に革命をもたらすことを約束している。
AIEDソリューションの開発とデプロイにおける標準化されたプラクティスの欠如は、断片化されたエコシステムにつながった。
この記事では、AIEDにおける業界標準の開発と実装に関する重要なニーズに対処することを目的としている。
論文 参考訳(メタデータ) (2024-03-13T22:38:08Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Assessing the Sustainability and Trustworthiness of Federated Learning Models [6.821579077084753]
欧州委員会のAI-HLEGグループは、信頼できるAIに対する持続可能なAIの重要性を強調した。
この研究は、信頼できるFL分類にサステナビリティの柱を導入し、AI-HLEGの要求に最初に対処する。
FLモデルの信頼性を評価するために,サステナビリティを考慮したアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-31T13:14:43Z) - Exploring Federated Unlearning: Review, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Achieving a Data-driven Risk Assessment Methodology for Ethical AI [3.523208537466128]
我々は,AIを用いた組織が直面する倫理的・社会的リスクの実践的定義の基盤として,多分野の研究アプローチが重要であることを示す。
本稿では,DRESS-eAIという新たなリスク評価手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:55:33Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。