論文の概要: Interplay between Federated Learning and Explainable Artificial Intelligence: a Scoping Review
- arxiv url: http://arxiv.org/abs/2411.05874v2
- Date: Thu, 10 Apr 2025 10:21:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:22:49.856820
- Title: Interplay between Federated Learning and Explainable Artificial Intelligence: a Scoping Review
- Title(参考訳): フェデレートラーニングと説明可能な人工知能の相互作用:スコーピングレビュー
- Authors: Luis M. Lopez-Ramos, Florian Leiser, Aditya Rastogi, Steven Hicks, Inga Strümke, Vince I. Madai, Tobias Budig, Ali Sunyaev, Adam Hilbert,
- Abstract要約: フェデレーション学習(FL)と説明可能な人工知能(XAI)は、分散データからモデルをトレーニングし、プライバシの本質的な側面を保持しながら内部動作を説明することができる。
このスコーピングレビューは、FLとXAIを共同で扱う出版物をマッピングし、FLとモデル解釈可能性またはポストホックの説明を報告した出版物に焦点を当てた。
- 参考スコア(独自算出の注目度): 1.6252563723817934
- License:
- Abstract: The joint implementation of federated learning (FL) and explainable artificial intelligence (XAI) could allow training models from distributed data and explaining their inner workings while preserving essential aspects of privacy. Toward establishing the benefits and tensions associated with their interplay, this scoping review maps the publications that jointly deal with FL and XAI, focusing on publications that reported an interplay between FL and model interpretability or post-hoc explanations. Out of the 37 studies meeting our criteria, only one explicitly and quantitatively analyzed the influence of FL on model explanations, revealing a significant research gap. The aggregation of interpretability metrics across FL nodes created generalized global insights at the expense of node-specific patterns being diluted. Several studies proposed FL algorithms incorporating explanation methods to safeguard the learning process against defaulting or malicious nodes. Studies using established FL libraries or following reporting guidelines are a minority. More quantitative research and structured, transparent practices are needed to fully understand their mutual impact and under which conditions it happens.
- Abstract(参考訳): 統合学習(FL)と説明可能な人工知能(XAI)の併用により、分散データからのトレーニングモデルと内部動作の説明が可能となり、プライバシの本質的な側面を保護できる。
それらの相互作用に関連する利益と緊張の確立に向けて、このスコーピングレビューはFLとXAIを共同で扱う出版物をマッピングし、FLとモデル解釈可能性またはポストホックの説明を報告した出版物に焦点を当てた。
基準を満たす37つの研究のうち、FLがモデル説明に与える影響を明示的に定量的に分析し、大きな研究ギャップが明らかとなった。
FLノード間の解釈可能性メトリクスの集約は、ノード固有のパターンが希薄になることを犠牲にして、一般化されたグローバルな洞察を生み出した。
いくつかの研究では、デフォルトノードや悪意のあるノードに対して学習プロセスを保護するための説明手法を組み込んだFLアルゴリズムが提案されている。
確立されたFLライブラリを用いた研究や、それに続く報告ガイドラインは少数派である。
より定量的な研究と構造化された透明なプラクティスは、相互の影響とそれが起こる条件を十分に理解するために必要である。
関連論文リスト
- Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - SoK: Challenges and Opportunities in Federated Unlearning [32.0365189539138]
本論文は、この新興分野における研究動向と課題を特定することを目的として、未学習の未学習文学を深く研究することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T19:35:08Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Towards Interpretable Federated Learning [19.764172768506132]
フェデレートラーニング(FL)は、複数のデータ所有者が、プライベートなローカルデータを公開せずに、協調して機械学習モデルを構築することを可能にする。
特に金融や医療といったミッションクリティカルなアプリケーションにおいて、パフォーマンス、プライバシ保護、解釈可能性の必要性のバランスをとることが重要です。
我々は、代表的IFL手法、一般的に採用されている性能評価指標、多目的IFL技術構築に向けた有望な方向性を包括的に分析する。
論文 参考訳(メタデータ) (2023-02-27T02:06:18Z) - When Do Curricula Work in Federated Learning? [56.88941905240137]
カリキュラム学習は非IID性を大幅に軽減する。
クライアント間でデータ配布を多様化すればするほど、学習の恩恵を受けるようになる。
本稿では,クライアントの現実的格差を生かした新しいクライアント選択手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T11:02:35Z) - Vertical Federated Learning: A Structured Literature Review [0.0]
フェデレートラーニング(FL)は、データプライバシのメリットを付加した、有望な分散ラーニングパラダイムとして登場した。
本稿では,VFLにおける最先端のアプローチを論じる構造化文献レビューを行う。
論文 参考訳(メタデータ) (2022-12-01T16:16:41Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Failure Prediction in Production Line Based on Federated Learning: An
Empirical Study [8.574488051650123]
フェデレーション学習(fl)は、複数の参加者がデータを共有することなく学習モデルを構築することを可能にする。
本稿では,FLに基づく生産ラインの故障予測に関する実証研究の結果について述べる。
論文 参考訳(メタデータ) (2021-01-25T10:27:19Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。