論文の概要: Interplay between Federated Learning and Explainable Artificial Intelligence: a Scoping Review
- arxiv url: http://arxiv.org/abs/2411.05874v1
- Date: Thu, 07 Nov 2024 22:44:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:11:38.729842
- Title: Interplay between Federated Learning and Explainable Artificial Intelligence: a Scoping Review
- Title(参考訳): フェデレートラーニングと説明可能な人工知能の相互作用:スコーピングレビュー
- Authors: Luis M. Lopez-Ramos, Florian Leiser, Aditya Rastogi, Steven Hicks, Inga Strümke, Vince I. Madai, Tobias Budig, Ali Sunyaev, Adam Hilbert,
- Abstract要約: フェデレートラーニング(FL)と説明可能な人工知能(XAI)の併用により、分散データからモデルのトレーニングが可能になる。
このスコーピングレビューは、FLとXAIを共同で扱う出版物をマッピングする。
37の研究が我々の基準を満たし、解釈可能性よりも説明法に焦点をあてた論文が多かった。
- 参考スコア(独自算出の注目度): 1.6252563723817934
- License:
- Abstract: The joint implementation of Federated learning (FL) and Explainable artificial intelligence (XAI) will allow training models from distributed data and explaining their inner workings while preserving important aspects of privacy. Towards establishing the benefits and tensions associated with their interplay, this scoping review maps those publications that jointly deal with FL and XAI, focusing on publications where an interplay between FL and model interpretability or post-hoc explanations was found. In total, 37 studies met our criteria, with more papers focusing on explanation methods (mainly feature relevance) than on interpretability (mainly algorithmic transparency). Most works used simulated horizontal FL setups involving 10 or fewer data centers. Only one study explicitly and quantitatively analyzed the influence of FL on model explanations, revealing a significant research gap. Aggregation of interpretability metrics across FL nodes created generalized global insights at the expense of node-specific patterns being diluted. 8 papers addressed the benefits of incorporating explanation methods as a component of the FL algorithm. Studies using established FL libraries or following reporting guidelines are a minority. More quantitative research and structured, transparent practices are needed to fully understand their mutual impact and under which conditions it happens.
- Abstract(参考訳): FL(Federated Learning)とXAI(Explainable AI)の併用によって、分散データからのトレーニングモデルと内部動作の説明が可能になり、プライバシの重要な側面を保護できる。
それらの相互作用に関連する利益と緊張の確立に向けて、このスコーピングレビューはFLとXAIを共同で扱う出版物をマッピングし、FLとモデルの解釈可能性やポストホックの説明が発見された出版物に焦点を当てた。
総じて37の研究では、解釈可能性(主にアルゴリズム的透明性)よりも説明法(主に特徴関連性)に焦点を当てた論文が得られた。
ほとんどの作業では,10ないしそれ以上のデータセンタを含む,シミュレーションされた水平FLセットアップを使用していた。
1つの研究のみが、FLがモデル説明に与える影響を明示的に定量的に分析し、重要な研究ギャップを明らかにした。
FLノード間の解釈可能性メトリクスの集約は、ノード固有のパターンの希薄化を犠牲にして、一般化されたグローバルな洞察を生み出した。
8論文では,FLアルゴリズムの構成要素として説明法を組み込むことの利点について論じている。
確立されたFLライブラリを用いた研究や、それに続く報告ガイドラインは少数派である。
より定量的な研究と構造化された透明なプラクティスは、相互の影響とそれが起こる条件を十分に理解するために必要である。
関連論文リスト
- Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - SoK: Challenges and Opportunities in Federated Unlearning [32.0365189539138]
本論文は、この新興分野における研究動向と課題を特定することを目的として、未学習の未学習文学を深く研究することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T19:35:08Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Towards Interpretable Federated Learning [19.764172768506132]
フェデレートラーニング(FL)は、複数のデータ所有者が、プライベートなローカルデータを公開せずに、協調して機械学習モデルを構築することを可能にする。
特に金融や医療といったミッションクリティカルなアプリケーションにおいて、パフォーマンス、プライバシ保護、解釈可能性の必要性のバランスをとることが重要です。
我々は、代表的IFL手法、一般的に採用されている性能評価指標、多目的IFL技術構築に向けた有望な方向性を包括的に分析する。
論文 参考訳(メタデータ) (2023-02-27T02:06:18Z) - When Do Curricula Work in Federated Learning? [56.88941905240137]
カリキュラム学習は非IID性を大幅に軽減する。
クライアント間でデータ配布を多様化すればするほど、学習の恩恵を受けるようになる。
本稿では,クライアントの現実的格差を生かした新しいクライアント選択手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T11:02:35Z) - Vertical Federated Learning: A Structured Literature Review [0.0]
フェデレートラーニング(FL)は、データプライバシのメリットを付加した、有望な分散ラーニングパラダイムとして登場した。
本稿では,VFLにおける最先端のアプローチを論じる構造化文献レビューを行う。
論文 参考訳(メタデータ) (2022-12-01T16:16:41Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Failure Prediction in Production Line Based on Federated Learning: An
Empirical Study [8.574488051650123]
フェデレーション学習(fl)は、複数の参加者がデータを共有することなく学習モデルを構築することを可能にする。
本稿では,FLに基づく生産ラインの故障予測に関する実証研究の結果について述べる。
論文 参考訳(メタデータ) (2021-01-25T10:27:19Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。