論文の概要: Privacy in the Age of AI: A Taxonomy of Data Risks
- arxiv url: http://arxiv.org/abs/2510.02357v1
- Date: Sun, 28 Sep 2025 00:20:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.037692
- Title: Privacy in the Age of AI: A Taxonomy of Data Risks
- Title(参考訳): AI時代のプライバシ - データリスクの分類
- Authors: Grace Billiris, Asif Gill, Madhushi Bandara,
- Abstract要約: 本稿では,AIプライバシリスクを分類する分類法を提案する。
データセットレベル、モデルレベル、インフラストラクチャレベル、インサイダー脅威の4つのカテゴリに分類される19の主要なリスクを特定します。
発見はこれらの次元のバランスの取れた分布を明らかにし、人間のエラー(9.45%)が最も重要な要因である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) systems introduce unprecedented privacy challenges as they process increasingly sensitive data. Traditional privacy frameworks prove inadequate for AI technologies due to unique characteristics such as autonomous learning and black-box decision-making. This paper presents a taxonomy classifying AI privacy risks, synthesised from 45 studies identified through systematic review. We identify 19 key risks grouped under four categories: Dataset-Level, Model-Level, Infrastructure-Level, and Insider Threat Risks. Findings reveal a balanced distribution across these dimensions, with human error (9.45%) emerging as the most significant factor. This taxonomy challenges conventional security approaches that typically prioritise technical controls over human factors, highlighting gaps in holistic understanding. By bridging technical and behavioural dimensions of AI privacy, this paper contributes to advancing trustworthy AI development and provides a foundation for future research.
- Abstract(参考訳): 人工知能(AI)システムは、ますますセンシティブなデータを処理しているため、前例のないプライバシー問題を導入している。
従来のプライバシフレームワークは、自律学習やブラックボックス決定のようなユニークな特徴のため、AIテクノロジには不十分である。
本稿では,AIプライバシリスクを分類する分類法を提案する。
データセットレベル、モデルレベル、インフラストラクチャレベル、インサイダー脅威の4つのカテゴリに分類される19のリスクを特定します。
発見はこれらの次元のバランスの取れた分布を明らかにし、人間のエラー(9.45%)が最も重要な要因である。
この分類法は、人間の要因に対する技術的な制御を優先する従来のセキュリティアプローチに挑戦し、全体論的理解のギャップを浮き彫りにする。
本稿では,AIプライバシの技術的側面と行動的側面をブリッジすることによって,信頼性の高いAI開発の発展に寄与し,今後の研究の基盤を提供する。
関連論文リスト
- "We are not Future-ready": Understanding AI Privacy Risks and Existing Mitigation Strategies from the Perspective of AI Developers in Europe [56.1653658714305]
ヨーロッパを拠点とする25人のAI開発者を対象にインタビューを行い、ユーザ、開発者、ビジネスに最もリスクをもたらすと彼らが信じているプライバシの脅威を理解しました。
プライバシリスクの相対的なランク付けに関して、AI開発者の間ではほとんど合意が得られていないことが分かっています。
AI開発者はこれらのリスクに対処するために提案された緩和戦略を認識しているが、彼らは最小限の現実的採用を報告した。
論文 参考訳(メタデータ) (2025-10-01T13:51:33Z) - A Taxonomy of Data Risks in AI and Quantum Computing (QAI) - A Systematic Review [0.0]
本研究は、QAIデータリスクの理解を深めるために、67のプライバシおよびセキュリティに関する研究を体系的にレビューする。
ガバナンス,リスクアセスメント,コントロール実装,ユーザ配慮,継続的監視の5つのカテゴリに分類される22の重要データリスクの分類法を提案する。
以上の結果から,QAI特有の脆弱性が明らかとなり,総合的リスク評価におけるギャップが明らかになった。
論文 参考訳(メタデータ) (2025-09-24T11:17:27Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Privacy Ethics Alignment in AI: A Stakeholder-Centric Framework for Ethical AI [0.0]
本研究は、デジタル市民(年齢16-19)、両親/教育者、AI専門家の3つの主要なステークホルダーグループにわたる、プライバシー上の懸念の進化について調査する。
若者は自主性とデジタルの自由を強調し、保護者と教育者は規制監督とAIリテラシープログラムを提唱する。
このデータは、AIリテラシーと透明性のギャップをさらに強調し、ステークホルダー主導のプライバシーフレームワークの必要性を強調している。
論文 参考訳(メタデータ) (2025-03-15T01:42:45Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence [35.77247656798871]
人工知能(AI)によって引き起こされるリスクは、学者、監査人、政策立案者、AI企業、そして一般大衆にかなり懸念されている。
AIリスクに対する共通理解の欠如は、包括的に議論し、研究し、それに反応する能力を妨げる可能性がある。
本稿では、共通の参照フレームとして機能するAIリスクリポジトリを作成することで、このギャップに対処する。
論文 参考訳(メタデータ) (2024-08-14T10:32:06Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。