論文の概要: Privy: Envisioning and Mitigating Privacy Risks for Consumer-facing AI Product Concepts
- arxiv url: http://arxiv.org/abs/2509.23525v1
- Date: Sat, 27 Sep 2025 23:08:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.272723
- Title: Privy: Envisioning and Mitigating Privacy Risks for Consumer-facing AI Product Concepts
- Title(参考訳): Privy: コンシューマ向けAI製品コンセプトのプライバシリスクの想定と緩和
- Authors: Hao-Ping Lee, Yu-Ju Yang, Matthew Bilik, Isadora Krsek, Thomas Serban von Davier, Kyzyl Monteiro, Jason Lin, Shivani Agarwal, Jodi Forlizzi, Sauvik Das,
- Abstract要約: AIはプライバシーのリスクを創造し、悪化させるが、実践者はこれらのリスクを特定し、緩和するための効果的なリソースを欠いている。
私たちはPrivを紹介します。Privは、構造化されたプライバシー影響評価を通じて実践者をガイドするツールです。
- 参考スコア(独自算出の注目度): 15.368491131846461
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI creates and exacerbates privacy risks, yet practitioners lack effective resources to identify and mitigate these risks. We present Privy, a tool that guides practitioners through structured privacy impact assessments to: (i) identify relevant risks in novel AI product concepts, and (ii) propose appropriate mitigations. Privy was shaped by a formative study with 11 practitioners, which informed two versions -- one LLM-powered, the other template-based. We evaluated these two versions of Privy through a between-subjects, controlled study with 24 separate practitioners, whose assessments were reviewed by 13 independent privacy experts. Results show that Privy helps practitioners produce privacy assessments that experts deemed high quality: practitioners identified relevant risks and proposed appropriate mitigation strategies. These effects were augmented in the LLM-powered version. Practitioners themselves rated Privy as being useful and usable, and their feedback illustrates how it helps overcome long-standing awareness, motivation, and ability barriers in privacy work.
- Abstract(参考訳): AIはプライバシーのリスクを創造し、悪化させるが、実践者はこれらのリスクを特定し、緩和するための効果的なリソースを欠いている。
Privyは、構造化されたプライバシー影響評価を通じて実践者をガイドするツールです。
一 新規AI製品概念の関連リスクを特定し、
(二)適切な緩和を提案する。
Privyは、11人の実践者によるフォーマティブな研究によって形成され、1つのLSMベースのバージョンと、もう1つのテンプレートベースのバージョンが報告された。
これらの2つのバージョンのPrivを、24人の実践者による対照研究を通じて評価し、その評価を13人の独立したプライバシー専門家がレビューした。
結果として、Privは、専門家が高品質とみなすプライバシーアセスメントを実践者が作成するのに役立ち、実践者が関連するリスクを特定し、適切な緩和戦略を提案することが示されている。
これらの効果はLLM版で強化された。
実践者自身はPriveを有用かつ有用であると評価し、彼らのフィードバックは、プライバシ作業における長年の認識、モチベーション、能力障壁を克服する上でどのように役立つかを示している。
関連論文リスト
- Real-Time Privacy Risk Measurement with Privacy Tokens for Gradient Leakage [15.700803673467641]
プライバシーに敏感なドメインにおけるディープラーニングモデルは、プライバシーリスクに関する懸念を増幅している。
トレーニング中にプライベート勾配から直接導出されるプライバシートークンの概念を提案する。
プライバシートークンは、トレーニングデータからのプライベート情報漏洩の程度に関する貴重な洞察を提供する。
我々は、トレーニングデータと勾配の関係を定量化するために、Mutual Information (MI) をロバストな指標として採用する。
論文 参考訳(メタデータ) (2025-02-05T06:20:20Z) - Multi-P$^2$A: A Multi-perspective Benchmark on Privacy Assessment for Large Vision-Language Models [65.2761254581209]
LVLM(Large Vision-Language Models)21個のオープンソースと2個のクローズドソースのプライバシ保護機能の評価を行った。
Multi-P$2$Aに基づいて、21のオープンソースと2つのクローズドソースLVLMのプライバシ保護機能を評価する。
以上の結果から,現在のLVLMは一般にプライバシー侵害のリスクが高いことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-27T07:33:39Z) - How Private are Language Models in Abstractive Summarization? [36.801842863853715]
医療や法律などの機密ドメインでは、機密情報を保護することが重要である。
これは、医療報告や訴訟要約などの貴重なデータを共有する上での課題である。
プライベートでないソース文書から、どの程度プライバシ保護の要約を提供できるのか、まだ明らかな疑問である。
論文 参考訳(メタデータ) (2024-12-16T18:08:22Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology [0.0]
プライバシ・リスク・アセスメントは、組織がプライバシ・バイ・デザインを実装することを奨励する、客観的で原則化された方法として評価されてきた。
既存のガイドラインや手法はあいまいであり、プライバシーの害に関する実証的な証拠はほとんどない。
実用的で技術的アプローチの限界と落とし穴を強調します。
論文 参考訳(メタデータ) (2023-08-24T01:32:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。