論文の概要: Deep opacity and AI: A threat to XAI and to privacy protection mechanisms
- arxiv url: http://arxiv.org/abs/2509.08835v1
- Date: Sat, 30 Aug 2025 11:15:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-14 20:41:04.947536
- Title: Deep opacity and AI: A threat to XAI and to privacy protection mechanisms
- Title(参考訳): 深層不透明感とAI: XAIとプライバシー保護メカニズムへの脅威
- Authors: Vincent C. Müller,
- Abstract要約: ビッグデータ分析とAIは、プライバシーを脅かす。
その理由のいくつかは、AIのある種の“ブラックボックス問題”にある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is known that big data analytics and AI pose a threat to privacy, and that some of this is due to some kind of "black box problem" in AI. I explain how this becomes a problem in the context of justification for judgments and actions. Furthermore, I suggest distinguishing three kinds of opacity: 1) the subjects do not know what the system does ("shallow opacity"), 2) the analysts do not know what the system does ("standard black box opacity"), or 3) the analysts cannot possibly know what the system might do ("deep opacity"). If the agents, data subjects as well as analytics experts, operate under opacity, then these agents cannot provide justifications for judgments that are necessary to protect privacy, e.g., they cannot give "informed consent", or guarantee "anonymity". It follows from these points that agents in big data analytics and AI often cannot make the judgments needed to protect privacy. So I conclude that big data analytics makes the privacy problems worse and the remedies less effective. As a positive note, I provide a brief outlook on technical ways to handle this situation.
- Abstract(参考訳): ビッグデータ分析とAIがプライバシーを脅かすことは知られており、その一部はAIのある種の「ブラックボックス問題」によるものである。
判断と行動の正当化という文脈で、これがどのように問題になるかを説明します。
さらに、私は3種類の不透明さを区別することを提案します。
1)被験者は、システムが何をしているかを知らない("Shallow opacity")。
2 アナリストは、システムが何をしているかを知らない(「標準的ブラックボックス不透明度」)。
3) アナリストはシステムが何をするかを理解できない("deep opacity")。
エージェント、データ主体、および分析専門家が不透明さの下で活動している場合、これらのエージェントは、プライバシーを保護するために必要な判断の正当性を提供することができない。
これらの点から、ビッグデータ分析とAIのエージェントは、プライバシーを保護するために必要な判断を下すことができない。
そこで、ビッグデータ分析がプライバシー問題を悪化させ、治療の効果を低下させると結論付けました。
肯定的に、私はこの状況に対処する技術的な方法について簡単な見通しを述べます。
関連論文リスト
- Privacy Risks and Preservation Methods in Explainable Artificial Intelligence: A Scoping Review [1.2744523252873352]
我々は、プライバシーと説明可能性の相違について詳細を求めるため、既存の文献のスコーピングレビューを実施している。
2019年1月から2024年12月までの1,943件の調査結果から57項目を抽出した。
我々は,XAIにおけるプライバシリスクと保存手法を分類し,プライバシ保護の説明の特徴を提案する。
論文 参考訳(メタデータ) (2025-05-05T17:53:28Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [75.85554113398626]
我々は、AIウェブナビゲーションエージェントがデータ最小化のプライバシー原則に従うかどうかを測定する新しいベンチマークAgentDAMを紹介する。
我々のベンチマークは、現実的なWebインタラクションシナリオをエンドツーエンドでシミュレートし、既存のWebナビゲーションエージェントに適応する。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - Unraveling Privacy Threat Modeling Complexity: Conceptual Privacy Analysis Layers [0.7918886297003017]
ソフトウェア製品におけるプライバシの脅威を分析することは、システムがプライバシを尊重することを保証するためのソフトウェア開発の不可欠な部分である。
我々は、このプライバシーの複雑さを捉えるために、4つの概念的レイヤ(機能、エコシステム、ビジネスコンテキスト、環境)を使うことを提案する。
これらのレイヤは、より具体的で実行可能な方法で、プライバシ分析のサポートを構造化し、指定するためのフレームとして使用することができる。
論文 参考訳(メタデータ) (2024-08-07T06:30:20Z) - Evaluating if trust and personal information privacy concerns are
barriers to using health insurance that explicitly utilizes AI [0.6138671548064355]
本研究は、信頼とプライバシに関する懸念が、医療保険におけるAI導入の障壁であるかどうかを考察する。
調査の結果、AIが見える第2のシナリオでは、信頼が著しく低いことが判明した。
プライバシに関する懸念はAIでは高いが、モデル内では統計的に重要な違いはない。
論文 参考訳(メタデータ) (2024-01-20T15:02:56Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Survey of Trustworthy AI: A Meta Decision of AI [0.41292255339309647]
不透明なシステムを信頼するには、信頼に値するAI(TAI)のレベルを決定する必要がある。
説明可能性/透明性、公平性/多様性、一般化可能性、プライバシ、データガバナンス、安全性/ロバスト性、説明責任、信頼性、持続可能性。
論文 参考訳(メタデータ) (2023-06-01T06:25:01Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Human intuition as a defense against attribute inference [4.916067949075847]
属性推論は、プライバシーに対する大きな脅威となっている。
この脅威に対処する1つの方法は、属性推論からプライベート情報を隠蔽するために、公開データを戦略的に修正することである。
我々は、このタスクを実行する人々の能力を評価し、この目的のために設計されたアルゴリズムと比較する。
論文 参考訳(メタデータ) (2023-04-24T06:54:17Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。