論文の概要: Achieving Transparency in Distributed Machine Learning with Explainable
Data Collaboration
- arxiv url: http://arxiv.org/abs/2212.03373v1
- Date: Tue, 6 Dec 2022 23:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 15:12:59.419461
- Title: Achieving Transparency in Distributed Machine Learning with Explainable
Data Collaboration
- Title(参考訳): 説明可能なデータコラボレーションによる分散機械学習の透明性の実現
- Authors: Anna Bogdanova, Akira Imakura, Tetsuya Sakurai, Tomoya Fujii, Teppei
Sakamoto, Hiroyuki Abe
- Abstract要約: 並列的なトレンドは、データにアクセスせずに、他のデータホルダーと協調して機械学習モデルをトレーニングすることです。
本稿では,モデルに依存しない付加的特徴帰属アルゴリズムに基づく説明可能なデータ協調フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.994347858883343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transparency of Machine Learning models used for decision support in various
industries becomes essential for ensuring their ethical use. To that end,
feature attribution methods such as SHAP (SHapley Additive exPlanations) are
widely used to explain the predictions of black-box machine learning models to
customers and developers. However, a parallel trend has been to train machine
learning models in collaboration with other data holders without accessing
their data. Such models, trained over horizontally or vertically partitioned
data, present a challenge for explainable AI because the explaining party may
have a biased view of background data or a partial view of the feature space.
As a result, explanations obtained from different participants of distributed
machine learning might not be consistent with one another, undermining trust in
the product. This paper presents an Explainable Data Collaboration Framework
based on a model-agnostic additive feature attribution algorithm (KernelSHAP)
and Data Collaboration method of privacy-preserving distributed machine
learning. In particular, we present three algorithms for different scenarios of
explainability in Data Collaboration and verify their consistency with
experiments on open-access datasets. Our results demonstrated a significant (by
at least a factor of 1.75) decrease in feature attribution discrepancies among
the users of distributed machine learning.
- Abstract(参考訳): さまざまな業界で意思決定支援に使用される機械学習モデルの透明性は、倫理的利用の確保に不可欠である。
そのため、SHAP(SHapley Additive exPlanations)のような機能属性手法は、顧客や開発者にブラックボックス機械学習モデルの予測を説明するために広く用いられている。
しかしながら、並列的なトレンドは、データにアクセスせずに、他のデータホルダーと共同で機械学習モデルをトレーニングすることです。
このようなモデルは、水平または垂直に分割されたデータに基づいてトレーニングされており、説明可能なAIには、背景データのバイアスのあるビューや特徴空間の部分的なビューを持つ可能性があるため、課題がある。
その結果、分散機械学習のさまざまな参加者から得られた説明は、製品に対する信頼を損なうことなく、互いに一致しない可能性がある。
本稿では,プライバシ保護分散機械学習におけるモデルに依存しない付加的特徴属性アルゴリズム(KernelSHAP)とデータ協調手法に基づく説明可能なデータ協調フレームワークを提案する。
特に、データコラボレーションにおける説明可能性の異なるシナリオに対する3つのアルゴリズムを提示し、オープンアクセスデータセットの実験との整合性を検証する。
その結果,分散機械学習のユーザ間では,特徴属性の相違が有意な(少なくとも1.75倍の)低下を示した。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Robust Computer Vision in an Ever-Changing World: A Survey of Techniques
for Tackling Distribution Shifts [20.17397328893533]
AIアプリケーションは、ますます一般大衆に注目を集めている。
コンピュータビジョンモデルに関する理論的な仮定と、それらのモデルが現実世界に展開する際に直面する現実との間には、顕著なギャップがある。
このギャップの重要な理由の1つは、分散シフトとして知られる難しい問題である。
論文 参考訳(メタデータ) (2023-12-03T23:40:12Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Striving for data-model efficiency: Identifying data externalities on
group performance [75.17591306911015]
信頼できる、効果的で責任ある機械学習システムの構築は、トレーニングデータとモデリング決定の違いが、予測パフォーマンスにどのように影響するかを理解することに集中する。
我々は、特定のタイプのデータモデル非効率性に注目し、一部のソースからトレーニングデータを追加することで、集団の重要なサブグループで評価されるパフォーマンスを実際に低下させることができる。
以上の結果から,データ効率が正確かつ信頼性の高い機械学習の鍵となることが示唆された。
論文 参考訳(メタデータ) (2022-11-11T16:48:27Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Partitioned Variational Inference: A Framework for Probabilistic
Federated Learning [45.9225420256808]
フェデレートされた環境でVIを実行するためのフレームワークであるパーティショニング付き変分推論(PVI)を導入する。
我々はPVIの新たな支援理論を開発し、実践者にとって魅力的な選択となる多くの特性を実証する。
論文 参考訳(メタデータ) (2022-02-24T18:15:30Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - A survey on datasets for fairness-aware machine learning [6.962333053044713]
多くのフェアネス対応機械学習ソリューションが提案されている。
本稿では,フェアネスを意識した機械学習に使用される実世界のデータセットについて概説する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
論文 参考訳(メタデータ) (2021-10-01T16:54:04Z) - Federated Learning System without Model Sharing through Integration of
Dimensional Reduced Data Representations [6.9485501711137525]
本稿では,教師付き学習タスクに先立って,分散データの次元削減表現を統合可能なフェデレート学習システムを提案する。
画像分類タスクにおけるこのアプローチのパフォーマンスを、集中型機械学習、個別機械学習、フェデレート平均化の3つのフレームワークと比較する。
提案手法は,Federated Averagingと同等の精度で,小規模なユーザ環境でのFederated Averagingよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-13T08:12:00Z) - Accelerating Federated Learning in Heterogeneous Data and Computational
Environments [0.7106986689736825]
本稿では,分散検証集合に対するフェデレーションにおける学習者の性能を評価する分散検証重み付け方式(DVW)を提案する。
我々は、DVWがFedAvgのような確立された手法よりも優れた性能をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2020-08-25T21:28:38Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。