論文の概要: Privacy Meets Explainability: A Comprehensive Impact Benchmark
- arxiv url: http://arxiv.org/abs/2211.04110v1
- Date: Tue, 8 Nov 2022 09:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:07:41.017936
- Title: Privacy Meets Explainability: A Comprehensive Impact Benchmark
- Title(参考訳): プライバシーと説明可能性 - 包括的な影響ベンチマーク
- Authors: Saifullah Saifullah, Dominique Mercier, Adriano Lucieri, Andreas
Dengel, Sheraz Ahmed
- Abstract要約: この研究は、Deep Learningベースのモデルで生成された説明にプライベートラーニング技術が与える影響を初めて調査したものである。
この結果は、プライバシーの導入による説明の無視できない変化を示唆している。
- 参考スコア(独自算出の注目度): 4.526582372434088
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Since the mid-10s, the era of Deep Learning (DL) has continued to this day,
bringing forth new superlatives and innovations each year. Nevertheless, the
speed with which these innovations translate into real applications lags behind
this fast pace. Safety-critical applications, in particular, underlie strict
regulatory and ethical requirements which need to be taken care of and are
still active areas of debate. eXplainable AI (XAI) and privacy-preserving
machine learning (PPML) are both crucial research fields, aiming at mitigating
some of the drawbacks of prevailing data-hungry black-box models in DL. Despite
brisk research activity in the respective fields, no attention has yet been
paid to their interaction. This work is the first to investigate the impact of
private learning techniques on generated explanations for DL-based models. In
an extensive experimental analysis covering various image and time series
datasets from multiple domains, as well as varying privacy techniques, XAI
methods, and model architectures, the effects of private training on generated
explanations are studied. The findings suggest non-negligible changes in
explanations through the introduction of privacy. Apart from reporting
individual effects of PPML on XAI, the paper gives clear recommendations for
the choice of techniques in real applications. By unveiling the
interdependencies of these pivotal technologies, this work is a first step
towards overcoming the remaining hurdles for practically applicable AI in
safety-critical domains.
- Abstract(参考訳): 10年代半ばから、Deep Learning (DL)の時代は、今日まで続き、毎年新しい話題やイノベーションが生まれている。
それでも、これらのイノベーションが実際のアプリケーションにもたらすスピードは、この速いペースには及ばない。
特に、安全クリティカルな応用は、厳格な規制と倫理的要件を満たしており、これは依然として議論の活発な分野である。
eXplainable AI (XAI) とプライバシ保護機械学習 (PPML) はどちらも重要な研究分野であり、DLで一般的なデータ処理のブラックボックスモデルの欠点を軽減することを目的としている。
それぞれの分野での活発な研究活動にもかかわらず、その相互作用にはまだ注意が払われていない。
本研究は,私的学習手法がDLモデルの生成説明に与える影響を初めて研究したものである。
複数のドメインからの様々な画像および時系列データセット、および様々なプライバシー技術、XAI手法、モデルアーキテクチャを網羅した広範な実験分析において、生成された説明に対するプライベートトレーニングの効果について検討した。
この結果は、プライバシーの導入による説明の無視できない変化を示唆している。
PPMLがXAIに与える影響を個別に報告することとは別に,本論文では,実際の応用におけるテクニックの選択について,明確な推奨を行う。
これらの重要な技術の相互依存を明らかにすることで、この研究は安全クリティカルな領域において、実践的に適用可能なAIのハードルを克服する第一歩となる。
関連論文リスト
- A Closer Look at the Limitations of Instruction Tuning [54.565210478164104]
インストラクションチューニング(IT)は,大規模言語モデル(LLM)における知識やスキルの向上に失敗することを示す。
また、一般的なIT改善手法は、シンプルなLoRA微調整モデルよりも性能改善につながるものではないことも示している。
この結果から,事前学習した知識のみから生成した応答は,オープンソースデータセット上でITから新たな知識を学習するモデルによって,一貫した応答性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-02-03T04:45:25Z) - Large Language Models Can Be Good Privacy Protection Learners [53.07930843882592]
本稿では,プライバシ保護言語モデル(PPLM)を紹介する。
本研究は, コーパスキュレーション, ペナルティに基づくトレーニング損失の相違, 命令に基づくチューニングなど, モデル設計の理論的解析を行う。
特に、肯定的な例と否定的な例の両方による命令チューニングは、モデルの知識を高めながら、個人データを効果的に保護する、有望な方法として際立っている。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Temporal DINO: A Self-supervised Video Strategy to Enhance Action
Prediction [15.696593695918844]
本稿では、DINOにインスパイアされた行動予測(ラベルのない自己蒸留)を強化するための、新しい自己教師型ビデオ戦略を提案する。
実験結果は、3D-ResNet、Transformer、LSTMアーキテクチャで予測性能が大幅に向上したことを示している。
これらの知見は,行動認識,運動計画,シーン理解など,多様な映像ベースタスクにおけるアプローチの可能性を強調した。
論文 参考訳(メタデータ) (2023-08-08T21:18:23Z) - Your Room is not Private: Gradient Inversion Attack on Reinforcement
Learning [47.96266341738642]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では, 状態, 行動, 監視信号の再構成に勾配インバージョンを利用する, 値ベースアルゴリズムと勾配ベースアルゴリズムに対する攻撃を提案する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - On Handling Catastrophic Forgetting for Incremental Learning of Human
Physical Activity on the Edge [1.4695979686066065]
PILOTEは、インクリメンタルな学習プロセスを極端にプッシュし、信頼性の高いデータプライバシと実用性を提供します。
モバイルセンサから収集した人間の活動データについて, PILOTEを広範囲にわたる実験により検証した。
論文 参考訳(メタデータ) (2023-02-18T11:55:01Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - A Survey on Offline Reinforcement Learning: Taxonomy, Review, and Open
Problems [0.0]
強化学習(RL)は、急速に人気が高まっている。
高いコストと環境との相互作用の危険性のため、RLにはアクセスできない領域がまだ広い範囲にある。
オフラインRLは、以前に収集されたインタラクションの静的データセットからのみ学習するパラダイムである。
論文 参考訳(メタデータ) (2022-03-02T20:05:11Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。