論文の概要: Countering Privacy Nihilism
- arxiv url: http://arxiv.org/abs/2507.18253v1
- Date: Thu, 24 Jul 2025 09:52:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.340865
- Title: Countering Privacy Nihilism
- Title(参考訳): プライバシーを守るニヒリズム
- Authors: Severin Engelmann, Helen Nissenbaum,
- Abstract要約: AIは「あらゆるものから」を推測できると推測されるかもしれない
データカテゴリをプライバシとデータ保護の規範的アンカーとして認識することは、プライバシ・ニヒリズムと呼ばれるものです。
我々は、データ型にのみフォーカスするプライバシーフレームワークから離れ、他のすべての要素を無視することを提案します。
- 参考スコア(独自算出の注目度): 2.6212127510234797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Of growing concern in privacy scholarship is artificial intelligence (AI), as a powerful producer of inferences. Taken to its limits, AI may be presumed capable of inferring "everything from everything," thereby making untenable any normative scheme, including privacy theory and privacy regulation, which rests on protecting privacy based on categories of data - sensitive versus non-sensitive, private versus public. Discarding data categories as a normative anchoring in privacy and data protection as a result of an unconditional acceptance of AI's inferential capacities is what we call privacy nihilism. An ethically reasoned response to AI inferences requires a sober consideration of AI capabilities rather than issuing an epistemic carte blanche. We introduce the notion of conceptual overfitting to expose how privacy nihilism turns a blind eye toward flawed epistemic practices in AI development. Conceptual overfitting refers to the adoption of norms of convenience that simplify the development of AI models by forcing complex constructs to fit data that are conceptually under-representative or even irrelevant. While conceptual overfitting serves as a helpful device to counter normative suggestions grounded in hyperbolic AI capability claims, AI inferences shake any privacy regulation that hinges protections based on restrictions around data categories. We propose moving away from privacy frameworks that focus solely on data type, neglecting all other factors. Theories like contextual integrity evaluate the normative value of privacy across several parameters, including the type of data, the actors involved in sharing it, and the purposes for which the information is used.
- Abstract(参考訳): プライバシー奨学金の関心が高まっているのは、推論の強力な生産者として人工知能(AI)である。
これにより、プライバシー理論やプライバシ規制など、あらゆる規範的スキームは、機密性、非機密性、プライベート性、パブリック性に基づくプライバシ保護に重点を置いている。
AIの推論能力が無条件で受け入れられた結果として、プライバシとデータ保護の規範的アンカーとしてデータカテゴリを識別することは、プライバシ・ニヒリズムと呼ばれるものです。
AI推論に対する倫理的に合理的な反応は、てんかんのカルトブランチを発行するよりも、AI能力を軽視する必要がある。
我々は、プライバシのニヒリズムがAI開発における欠陥のあるてんかんの実践に対して盲目になることを示すために、概念的過適合の概念を紹介します。
概念的オーバーフィッティング(conceptual overfitting)とは、AIモデルの開発をシンプルにするために、概念的に非表現的あるいは無関係なデータに適合するように複雑な構造を強制することによる、利便性の規範の採用を指す。
概念オーバーフィッティングは、双曲型AI能力の主張に基づく規範的提案に対抗するための有用なデバイスとして機能するが、AI推論は、データカテゴリに関する制限に基づいて保護を拘束するプライバシー規制を揺るがす。
我々は、データ型にのみフォーカスするプライバシーフレームワークから離れ、他のすべての要素を無視することを提案します。
コンテキスト整合性のような理論は、データの種類、共有に関わるアクター、情報の使用目的など、いくつかのパラメータでプライバシの規範的価値を評価する。
関連論文リスト
- Rethinking Data Protection in the (Generative) Artificial Intelligence Era [115.71019708491386]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Enforcing Demographic Coherence: A Harms Aware Framework for Reasoning about Private Data Release [14.939460540040459]
データプライバシに必要であると主張するプライバシ攻撃にインスパイアされた、人口統計コヒーレンスを導入します。
我々のフレームワークは信頼性評価予測に重点を置いており、ほぼすべてのデータインフォームドプロセスから蒸留することができる。
差分的にプライベートなデータリリースはすべて、人口統計学的にコヒーレントであること、および、差分的にプライベートではない人口統計学的にコヒーレントなアルゴリズムがあることを実証する。
論文 参考訳(メタデータ) (2025-02-04T20:42:30Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - Privacy and Copyright Protection in Generative AI: A Lifecycle Perspective [28.968233485060654]
データライフサイクルにおけるプライバシーと著作権保護の多面的課題について論じる。
我々は、技術的革新と倫理的展望を組み合わせた統合的なアプローチを提唱する。
この作業は、より広範な議論のきっかけとなり、ジェネレーティブAIにおけるデータのプライバシと著作権の整合性に対する継続的な取り組みを促進することを目的としている。
論文 参考訳(メタデータ) (2023-11-30T05:03:08Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - A Critical Take on Privacy in a Datafied Society [0.0]
私は、プライバシー擁護者が提示するオンラインのプライバシーと慣用性の欠如について、いくつかの側面を分析します。
データフィケーションが人間の行動に与える影響、オンラインプライバシの基盤における市場志向の前提、そして新たな適応戦略について論じる。
潜在的な問題となる未来を垣間見るために、EU、英国、および中国のジェネレーティブAIポリシーに関するプライバシー関連の側面に関する議論が提供されている。
論文 参考訳(メタデータ) (2023-08-03T11:45:18Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。