論文の概要: A Solution toward Transparent and Practical AI Regulation: Privacy Nutrition Labels for Open-source Generative AI-based Applications
- arxiv url: http://arxiv.org/abs/2407.15407v1
- Date: Mon, 22 Jul 2024 06:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 16:00:55.283310
- Title: A Solution toward Transparent and Practical AI Regulation: Privacy Nutrition Labels for Open-source Generative AI-based Applications
- Title(参考訳): 透明で実践的なAI規制への解決策:オープンソースのジェネレーティブAIベースのアプリケーションのためのプライバシ栄養ラベル
- Authors: Meixue Si, Shidong Pan, Dianshu Liao, Xiaoyu Sun, Zhen Tao, Wenchang Shi, Zhenchang Xing,
- Abstract要約: 本稿では、規制駆動型GAIプライバシーラベルを提案し、これらのラベルを自動生成する新しいフレームワークであるRepo2Labelを紹介する。
ユーザ調査は,提案したGAIプライバシーラベルフォーマットの共通支持を示す。
Repo2Labelは、ベンチマークデータセットに基づいて精度0.81、リコール0.88、F1スコア0.84を達成している。
- 参考スコア(独自算出の注目度): 13.973296363656406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid development and widespread adoption of Generative Artificial Intelligence-based (GAI) applications have greatly enriched our daily lives, benefiting people by enhancing creativity, personalizing experiences, improving accessibility, and fostering innovation and efficiency across various domains. However, along with the development of GAI applications, concerns have been raised about transparency in their privacy practices. Traditional privacy policies often fail to effectively communicate essential privacy information due to their complexity and length, and open-source community developers often neglect privacy practices even more. Only 12.2% of examined open-source GAI apps provide a privacy policy. To address this, we propose a regulation-driven GAI Privacy Label and introduce Repo2Label, a novel framework for automatically generating these labels based on code repositories. Our user study indicates a common endorsement of the proposed GAI privacy label format. Additionally, Repo2Label achieves a precision of 0.81, recall of 0.88, and F1-score of 0.84 based on the benchmark dataset, significantly outperforming the developer self-declared privacy notices. We also discuss the common regulatory (in)compliance of open-source GAI apps, comparison with other privacy notices, and broader impacts to different stakeholders. Our findings suggest that Repo2Label could serve as a significant tool for bolstering the privacy transparency of GAI apps and make them more practical and responsible.
- Abstract(参考訳): ジェネレーティブ・人工知能ベースのアプリケーション(GAI)の急速な開発と普及により、創造性の向上、体験のパーソナライズ、アクセシビリティの向上、さまざまな領域におけるイノベーションと効率の向上などによって、人々の生活を大いに豊かにしている。
しかしながら、GAIアプリケーションの開発とともに、プライバシープラクティスの透明性に関する懸念が高まっている。
従来のプライバシーポリシーは、複雑さと長さのために重要なプライバシー情報を効果的に伝達することができず、オープンソースコミュニティの開発者は、より多くのプライバシープラクティスを無視することが多い。
調査対象のオープンソースGAIアプリの12.2%のみがプライバシポリシを提供している。
これを解決するために,規制駆動型GAIプライバシーラベルを提案し,コードリポジトリに基づいてこれらのラベルを自動的に生成する新しいフレームワークであるRepo2Labelを紹介した。
ユーザ調査は,提案したGAIプライバシーラベルフォーマットの共通支持を示す。
さらに、Repo2Labelは、ベンチマークデータセットに基づいて、精度0.81、リコール0.88、F1スコア0.84を達成し、開発者が宣言したプライバシー通知を大幅に上回る。
また、オープンソースのGAIアプリの共通規制の遵守、他のプライバシ通知との比較、さまざまな利害関係者への影響についても論じる。
我々の発見は、Repo2Labelが、GAIアプリのプライバシー透明性を強化し、より実用的で責任のあるものにするための重要なツールになり得ることを示唆している。
関連論文リスト
- Deploying Privacy Guardrails for LLMs: A Comparative Analysis of Real-World Applications [3.1810537478232406]
OneShieldは、エンタープライズおよびオープンソース環境でのユーザ入力とLLM出力のプライバシーリスクを軽減するために設計されたフレームワークである。
企業規模のデータガバナンスに焦点をあてて、2つの実世界のデプロイメントを分析します。
OneShieldは26言語にわたるセンシティブなエンティティの検出で0.95 F1スコアを獲得し、最先端のツールを上回った。
論文 参考訳(メタデータ) (2025-01-21T19:04:53Z) - Privacy Bills of Materials: A Transparent Privacy Information Inventory for Collaborative Privacy Notice Generation in Mobile App Development [23.578964768900974]
モバイルアプリのプライバシ情報をキャプチャしてコーディネートするための,システマティックなソフトウェアエンジニアリングアプローチであるPriBOMを紹介します。
PriBOMは、透明性中心のプライバシドキュメントと特定のプライバシ通知の作成を促進し、プライバシプラクティスのトレーサビリティと追跡性を可能にする。
論文 参考訳(メタデータ) (2025-01-02T08:14:52Z) - Privacy-Preserving Retrieval Augmented Generation with Differential Privacy [25.896416088293908]
検索拡張生成(RAG)は、外部知識ソースから直接関連する情報を提供することで、大規模言語モデル(LLM)を支援する。
RAGは、外部データソースから機密情報を漏洩するリスクを出力する。
本研究では、データプライバシの正式な保証である差分プライバシ(DP)の下でRAGを探索する。
論文 参考訳(メタデータ) (2024-12-06T01:20:16Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mitigating the Privacy Issues in Retrieval-Augmented Generation (RAG) via Pure Synthetic Data [51.41288763521186]
Retrieval-augmented Generation (RAG)は、外部知識ソースから取得した関連情報を統合することにより、言語モデルの出力を強化する。
RAGシステムは、プライベートデータを取得する際に深刻なプライバシーリスクに直面する可能性がある。
検索データに対するプライバシー保護の代替として,合成データを用いる方法を提案する。
論文 参考訳(メタデータ) (2024-06-20T22:53:09Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - {A New Hope}: Contextual Privacy Policies for Mobile Applications and An
Approach Toward Automated Generation [19.578130824867596]
コンテキストプライバシポリシ(CPP)の目的は、プライバシポリシを簡潔なスニペットに断片化し、アプリケーションのグラフィカルユーザインターフェース(GUI)内の対応するコンテキスト内でのみ表示することである。
本稿では,モバイルアプリケーションシナリオでCPPを初めて定式化し,モバイルアプリケーション用のCPPを自動生成するSeePrivacyという新しいマルチモーダルフレームワークを提案する。
人間の評価では、抽出されたプライバシーポリシーセグメントの77%が、検出されたコンテキストと適切に一致していると認識されている。
論文 参考訳(メタデータ) (2024-02-22T13:32:33Z) - Toward the Cure of Privacy Policy Reading Phobia: Automated Generation
of Privacy Nutrition Labels From Privacy Policies [19.180437130066323]
プライバシーポリシーからプライバシー栄養ラベルを自動的に生成できる最初のフレームワークを提案する。
Google Play App StoreのData Safety Reportに関する私たちの真実のアプリケーションに基づいて、当社のフレームワークは、サードパーティのデータ収集プラクティスの生成において、0.75F1スコアを達成しています。
また、市場における地平の真実と保護されたプライバシーの栄養ラベルの矛盾を分析し、我々のフレームワークは90.1%の未解決の問題を検出することができる。
論文 参考訳(メタデータ) (2023-06-19T13:33:44Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。