論文の概要: When Explainability Meets Privacy: An Investigation at the Intersection of Post-hoc Explainability and Differential Privacy in the Context of Natural Language Processing
- arxiv url: http://arxiv.org/abs/2508.10482v2
- Date: Fri, 15 Aug 2025 13:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 12:50:03.12675
- Title: When Explainability Meets Privacy: An Investigation at the Intersection of Post-hoc Explainability and Differential Privacy in the Context of Natural Language Processing
- Title(参考訳): 説明可能性とプライバシ:自然言語処理の文脈におけるポストホックな説明可能性と差別的なプライバシのインターセクションにおける考察
- Authors: Mahdi Dhaini, Stephen Meisenbacher, Ege Erdogan, Florian Matthes, Gjergji Kasneci,
- Abstract要約: 我々はNLPの文脈で、プライバシーと説明可能性のトレードオフを実証的に調査する。
私たちの発見には、プライバシーと説明可能性の複雑な関係についての見解が含まれています。
プライバシーと説明責任が共存する可能性を強調します。
- 参考スコア(独自算出の注目度): 11.944589034923313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the study of trustworthy Natural Language Processing (NLP), a number of important research fields have emerged, including that of explainability and privacy. While research interest in both explainable and privacy-preserving NLP has increased considerably in recent years, there remains a lack of investigation at the intersection of the two. This leaves a considerable gap in understanding of whether achieving both explainability and privacy is possible, or whether the two are at odds with each other. In this work, we conduct an empirical investigation into the privacy-explainability trade-off in the context of NLP, guided by the popular overarching methods of Differential Privacy (DP) and Post-hoc Explainability. Our findings include a view into the intricate relationship between privacy and explainability, which is formed by a number of factors, including the nature of the downstream task and choice of the text privatization and explainability method. In this, we highlight the potential for privacy and explainability to co-exist, and we summarize our findings in a collection of practical recommendations for future work at this important intersection.
- Abstract(参考訳): 信頼できる自然言語処理(NLP)の研究において、説明可能性やプライバシーなど、多くの重要な研究分野が生まれている。
近年, 説明可能なNLPとプライバシ保護NLPの両方に対する研究の関心は著しく高まっているが, 両者の交差点では調査の欠如が続いている。
このことは、説明可能性とプライバシの両方を達成することができるかどうか、あるいは両者が相反するかどうかの理解にかなりのギャップを残している。
本研究では,NLPの文脈におけるプライバシーと説明可能性のトレードオフに関する実証的研究を行う。
本研究は、下流タスクの性質やテキストの民営化と説明可能性の方法の選択など、さまざまな要因によって形成されるプライバシーと説明可能性の複雑な関係を考察することを含む。
本稿では、プライバシーと説明可能性の共存の可能性を強調し、この重要な交差点における今後の作業のための実践的な推奨事項のコレクションにその知見を要約する。
関連論文リスト
- Token-Level Privacy in Large Language Models [7.4143291213663955]
本稿では,文脈情報と意味情報を統合するトークンレベルの新しいプライバシ保護機構であるdchi-stencilを紹介する。
意味的ニュアンスと文脈的ニュアンスの両方を取り入れることで、dchi-stencilはプライバシとユーティリティの堅牢なバランスを実現する。
この研究は、現代の高リスクアプリケーションにおけるプライバシ保護NLPの新しい標準を設定するためのdchi-stencilの可能性を強調している。
論文 参考訳(メタデータ) (2025-03-05T16:27:25Z) - Natural Language Processing of Privacy Policies: A Survey [2.4058538793689497]
NLPとプライバシポリシの交差点で109の論文を分析して文献レビューを行う。
プライバシーポリシーを簡潔に紹介し、関連する諸問題について論じる。
堅牢なプライバシポリシを提供するために、さらに拡張可能な方法論を特定します。
論文 参考訳(メタデータ) (2025-01-17T17:47:15Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - A Comparative Analysis of Word-Level Metric Differential Privacy: Benchmarking The Privacy-Utility Trade-off [45.07650884598811]
単語レベルの差分プライバシーを達成するための7つの異なるアルゴリズムを比較した。
プライバシーとユーティリティのトレードオフに焦点をあてて、結果の詳細な分析を行う。
我々は研究分野に向けて具体的な一歩を踏み出すことを提案する。
論文 参考訳(メタデータ) (2024-04-04T09:48:14Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - Differential Privacy in Natural Language Processing: The Story So Far [21.844047604993687]
本稿では,差分プライバシーが抱える脆弱性を要約することを目的とする。
このトピックは、NLPメソッドに差別的プライバシを適用するにはどうすればよいのか、という1つの基本的な目標にまとめられている、新しい研究のきっかけとなった。
論文 参考訳(メタデータ) (2022-08-17T08:15:44Z) - Beyond The Text: Analysis of Privacy Statements through Syntactic and
Semantic Role Labeling [12.74252812104216]
本稿では,プライバシポリシからコンテキスト整合性(Contextual Integrity)のレンズを通じて,プライバシパラメータを抽出する新たなタスクを定式化する。
最近提案された質問応答に基づくソリューションを含む従来のNLPタスクは、プライバシパラメータ抽出の問題に対処するには不十分であることを示す。
論文 参考訳(メタデータ) (2020-10-01T20:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。