論文の概要: Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives
- arxiv url: http://arxiv.org/abs/2407.02027v1
- Date: Tue, 2 Jul 2024 07:49:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 16:24:25.257157
- Title: Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives
- Title(参考訳): 汎用AIシステムのプライバシリスク:実践者の視点を調査するための基盤
- Authors: Stephen Meisenbacher, Alexandra Klymenko, Patrick Gage Kelley, Sai Teja Peddinti, Kurt Thomas, Florian Matthes,
- Abstract要約: 強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
- 参考スコア(独自算出の注目度): 47.17703009473386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of powerful AI models, more formally $\textit{General-Purpose AI Systems}$ (GPAIS), has led to impressive leaps in performance across a wide range of tasks. At the same time, researchers and practitioners alike have raised a number of privacy concerns, resulting in a wealth of literature covering various privacy risks and vulnerabilities of AI models. Works surveying such risks provide differing focuses, leading to disparate sets of privacy risks with no clear unifying taxonomy. We conduct a systematic review of these survey papers to provide a concise and usable overview of privacy risks in GPAIS, as well as proposed mitigation strategies. The developed privacy framework strives to unify the identified privacy risks and mitigations at a technical level that is accessible to non-experts. This serves as the basis for a practitioner-focused interview study to assess technical stakeholder perceptions of privacy risks and mitigations in GPAIS.
- Abstract(参考訳): 強力なAIモデルの台頭、より正式には$\textit{General-Purpose AI Systems}$ (GPAIS)は、幅広いタスクでパフォーマンスが飛躍的に向上した。
同時に、研究者や実践者たちも、多くのプライバシー上の懸念を提起し、その結果、さまざまなプライバシーリスクとAIモデルの脆弱性に関する多くの文献が報告された。
このようなリスクを調査する作業は、異なる焦点を与え、明確に分類を統一することなく、異なるプライバシーリスクのセットを生み出す。
我々は,これらの調査論文の体系的レビューを行い,GPAISにおけるプライバシーリスクの簡潔かつ有用な概観と緩和策を提案する。
開発されたプライバシフレームワークは、特定されたプライバシのリスクと軽減を、非専門家がアクセス可能な技術的レベルで統一することを目指している。
これは、GPAISのプライバシーリスクと緩和に関する技術ステークホルダーの認識を評価する実践者中心のインタビュー研究の基礎となる。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Open Government Data Programs and Information Privacy Concerns: A
Literature Review [0.0]
発見は、公正な情報慣行、再識別リスク、オープン政府データ(OGD)価値提案との矛盾、スマートシティデータプラクティスが文献における重要なプライバシー上の懸念であることを示している。
提案されている解決策には、プライバシーの懸念を軽減するための技術的、法的、手続き的な措置が含まれる。
論文 参考訳(メタデータ) (2023-12-14T16:03:49Z) - Security and Privacy on Generative Data in AIGC: A Survey [17.456578314457612]
我々はAIGCにおける生成データのセキュリティとプライバシについてレビューする。
プライバシ、制御性、信頼性、コンプライアンスの基本的な性質の観点から、最先端の対策が成功した経験を明らかにする。
論文 参考訳(メタデータ) (2023-09-18T02:35:24Z) - Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology [0.0]
プライバシ・リスク・アセスメントは、組織がプライバシ・バイ・デザインを実装することを奨励する、客観的で原則化された方法として評価されてきた。
既存のガイドラインや手法はあいまいであり、プライバシーの害に関する実証的な証拠はほとんどない。
実用的で技術的アプローチの限界と落とし穴を強調します。
論文 参考訳(メタデータ) (2023-08-24T01:32:35Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - Privacy of Autonomous Vehicles: Risks, Protection Methods, and Future
Directions [23.778855805039438]
AVのプライバシーリスクと保護方法のための新しい分類法を提供する。
AVのプライバシーは、個人、人口、プロプライエタリの3つのレベルに分類されます。
論文 参考訳(メタデータ) (2022-09-08T20:16:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。