論文の概要: Privacy Risks and Preservation Methods in Explainable Artificial Intelligence: A Scoping Review
- arxiv url: http://arxiv.org/abs/2505.02828v1
- Date: Mon, 05 May 2025 17:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.7629
- Title: Privacy Risks and Preservation Methods in Explainable Artificial Intelligence: A Scoping Review
- Title(参考訳): 説明可能な人工知能のプライバシリスクと保存方法:スコーピングレビュー
- Authors: Sonal Allana, Mohan Kankanhalli, Rozita Dara,
- Abstract要約: 我々は、プライバシーと説明可能性の相違について詳細を求めるため、既存の文献のスコーピングレビューを実施している。
2019年1月から2024年12月までの1,943件の調査結果から57項目を抽出した。
我々は,XAIにおけるプライバシリスクと保存手法を分類し,プライバシ保護の説明の特徴を提案する。
- 参考スコア(独自算出の注目度): 1.2744523252873352
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) has emerged as a pillar of Trustworthy AI and aims to bring transparency in complex models that are opaque by nature. Despite the benefits of incorporating explanations in models, an urgent need is found in addressing the privacy concerns of providing this additional information to end users. In this article, we conduct a scoping review of existing literature to elicit details on the conflict between privacy and explainability. Using the standard methodology for scoping review, we extracted 57 articles from 1,943 studies published from January 2019 to December 2024. The review addresses 3 research questions to present readers with more understanding of the topic: (1) what are the privacy risks of releasing explanations in AI systems? (2) what current methods have researchers employed to achieve privacy preservation in XAI systems? (3) what constitutes a privacy preserving explanation? Based on the knowledge synthesized from the selected studies, we categorize the privacy risks and preservation methods in XAI and propose the characteristics of privacy preserving explanations to aid researchers and practitioners in understanding the requirements of XAI that is privacy compliant. Lastly, we identify the challenges in balancing privacy with other system desiderata and provide recommendations for achieving privacy preserving XAI. We expect that this review will shed light on the complex relationship of privacy and explainability, both being the fundamental principles of Trustworthy AI.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、信頼に値するAIの柱として現れ、本質的に不透明な複雑なモデルに透明性をもたらすことを目指している。
モデルに説明を組み込むことの利点にもかかわらず、エンドユーザーにこの追加情報を提供するというプライバシー上の懸念に対処するためには、緊急の必要が生じる。
本稿では,既存文献のスコーピングレビューを行い,プライバシーと説明可能性の相違について詳細に考察する。
基準手法を用いて,2019年1月から2024年12月までに発行された1,943件の論文から57項目を抽出した。
レビューでは、読者にこのトピックについてより深く理解してもらうための3つの研究質問を取り上げている。(1)AIシステムで説明を公開する際のプライバシーリスクは何か?
2)XAIシステムにおけるプライバシー保護の実現に研究者はどのような方法を採用しているか。
(3)プライバシー保護の説明とは何か。
選択した研究から得られた知識に基づいて,XAIにおけるプライバシーリスクと保存方法の分類を行い,プライバシーに準拠するXAIの要件を理解するために,研究者や実践者を支援するために,プライバシー保護の説明の特質を提案する。
最後に、プライバシと他のシステムデシダータとのバランスをとる上での課題を特定し、XAIのプライバシ保護を実現するためのレコメンデーションを提供する。
このレビューは、プライバシと説明可能性の複雑な関係に光を当てることを期待しています。
関連論文リスト
- Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - GenAIPABench: A Benchmark for Generative AI-based Privacy Assistants [1.2642388972233845]
本稿では、ジェネレーティブAIベースのプライバシアシスタント(GenAIPA)の評価ベンチマークであるGenAIPABenchを紹介する。
GenAIPABench には,1) プライバシポリシやデータ保護規則に関する一連の質問,2) さまざまな組織や規制に対する注釈付き回答,2) 応答の正確性,関連性,一貫性を評価するメトリクス,3) プライバシドキュメントの導入や,システムの堅牢性をテストするためのさまざまなプライバシ質問などを生成するためのプロンプトを生成するツールなどが含まれている。
我々は、GenAIPABenchを用いて、ChatGPT-4、Bard、Bing AIの3つの主要なGenAIシステムを評価し、その効果をGenAIPAとして評価した。
論文 参考訳(メタデータ) (2023-09-10T21:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。