論文の概要: A Solution toward Transparent and Practical AI Regulation: Privacy Nutrition Labels for Open-source Generative AI-based Applications
- arxiv url: http://arxiv.org/abs/2407.15407v1
- Date: Mon, 22 Jul 2024 06:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 16:00:55.283310
- Title: A Solution toward Transparent and Practical AI Regulation: Privacy Nutrition Labels for Open-source Generative AI-based Applications
- Title(参考訳): 透明で実践的なAI規制への解決策:オープンソースのジェネレーティブAIベースのアプリケーションのためのプライバシ栄養ラベル
- Authors: Meixue Si, Shidong Pan, Dianshu Liao, Xiaoyu Sun, Zhen Tao, Wenchang Shi, Zhenchang Xing,
- Abstract要約: 本稿では、規制駆動型GAIプライバシーラベルを提案し、これらのラベルを自動生成する新しいフレームワークであるRepo2Labelを紹介する。
ユーザ調査は,提案したGAIプライバシーラベルフォーマットの共通支持を示す。
Repo2Labelは、ベンチマークデータセットに基づいて精度0.81、リコール0.88、F1スコア0.84を達成している。
- 参考スコア(独自算出の注目度): 13.973296363656406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid development and widespread adoption of Generative Artificial Intelligence-based (GAI) applications have greatly enriched our daily lives, benefiting people by enhancing creativity, personalizing experiences, improving accessibility, and fostering innovation and efficiency across various domains. However, along with the development of GAI applications, concerns have been raised about transparency in their privacy practices. Traditional privacy policies often fail to effectively communicate essential privacy information due to their complexity and length, and open-source community developers often neglect privacy practices even more. Only 12.2% of examined open-source GAI apps provide a privacy policy. To address this, we propose a regulation-driven GAI Privacy Label and introduce Repo2Label, a novel framework for automatically generating these labels based on code repositories. Our user study indicates a common endorsement of the proposed GAI privacy label format. Additionally, Repo2Label achieves a precision of 0.81, recall of 0.88, and F1-score of 0.84 based on the benchmark dataset, significantly outperforming the developer self-declared privacy notices. We also discuss the common regulatory (in)compliance of open-source GAI apps, comparison with other privacy notices, and broader impacts to different stakeholders. Our findings suggest that Repo2Label could serve as a significant tool for bolstering the privacy transparency of GAI apps and make them more practical and responsible.
- Abstract(参考訳): ジェネレーティブ・人工知能ベースのアプリケーション(GAI)の急速な開発と普及により、創造性の向上、体験のパーソナライズ、アクセシビリティの向上、さまざまな領域におけるイノベーションと効率の向上などによって、人々の生活を大いに豊かにしている。
しかしながら、GAIアプリケーションの開発とともに、プライバシープラクティスの透明性に関する懸念が高まっている。
従来のプライバシーポリシーは、複雑さと長さのために重要なプライバシー情報を効果的に伝達することができず、オープンソースコミュニティの開発者は、より多くのプライバシープラクティスを無視することが多い。
調査対象のオープンソースGAIアプリの12.2%のみがプライバシポリシを提供している。
これを解決するために,規制駆動型GAIプライバシーラベルを提案し,コードリポジトリに基づいてこれらのラベルを自動的に生成する新しいフレームワークであるRepo2Labelを紹介した。
ユーザ調査は,提案したGAIプライバシーラベルフォーマットの共通支持を示す。
さらに、Repo2Labelは、ベンチマークデータセットに基づいて、精度0.81、リコール0.88、F1スコア0.84を達成し、開発者が宣言したプライバシー通知を大幅に上回る。
また、オープンソースのGAIアプリの共通規制の遵守、他のプライバシ通知との比較、さまざまな利害関係者への影響についても論じる。
我々の発見は、Repo2Labelが、GAIアプリのプライバシー透明性を強化し、より実用的で責任のあるものにするための重要なツールになり得ることを示唆している。
関連論文リスト
- On Active Privacy Auditing in Supervised Fine-tuning for White-Box Language Models [7.275432177367344]
パーシングは、言語モデル(LM)の教師付き微調整中にプライバシー漏洩リスクを特定し定量化するように設計されている。
我々は,GPT-2,Llama2などの大規模LMに対するMIA(White-box Membering Inference attack)の有効性を改善した。
本研究の目的は,LMのSFTコミュニティに対して,信頼性と使用可能なプライバシ監査ツールの提供と,微調整プロセス中のプライバシ保護に関する貴重な洞察を提供することである。
論文 参考訳(メタデータ) (2024-11-11T15:46:07Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mitigating the Privacy Issues in Retrieval-Augmented Generation (RAG) via Pure Synthetic Data [51.41288763521186]
Retrieval-augmented Generation (RAG)は、外部知識ソースから取得した関連情報を統合することにより、言語モデルの出力を強化する。
RAGシステムは、プライベートデータを取得する際に深刻なプライバシーリスクに直面する可能性がある。
検索データに対するプライバシー保護の代替として,合成データを用いる方法を提案する。
論文 参考訳(メタデータ) (2024-06-20T22:53:09Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - {A New Hope}: Contextual Privacy Policies for Mobile Applications and An
Approach Toward Automated Generation [19.578130824867596]
コンテキストプライバシポリシ(CPP)の目的は、プライバシポリシを簡潔なスニペットに断片化し、アプリケーションのグラフィカルユーザインターフェース(GUI)内の対応するコンテキスト内でのみ表示することである。
本稿では,モバイルアプリケーションシナリオでCPPを初めて定式化し,モバイルアプリケーション用のCPPを自動生成するSeePrivacyという新しいマルチモーダルフレームワークを提案する。
人間の評価では、抽出されたプライバシーポリシーセグメントの77%が、検出されたコンテキストと適切に一致していると認識されている。
論文 参考訳(メタデータ) (2024-02-22T13:32:33Z) - Assessing Mobile Application Privacy: A Quantitative Framework for Privacy Measurement [0.0]
この研究は、プライバシを優先し、情報に基づく意思決定を促進し、プライバシ保護設計原則を支持したデジタル環境に貢献することを目的としている。
このフレームワークの目的は、特定のAndroidアプリケーションを使用する際のプライバシーリスクのレベルを体系的に評価することである。
論文 参考訳(メタデータ) (2023-10-31T18:12:19Z) - Toward the Cure of Privacy Policy Reading Phobia: Automated Generation
of Privacy Nutrition Labels From Privacy Policies [19.180437130066323]
プライバシーポリシーからプライバシー栄養ラベルを自動的に生成できる最初のフレームワークを提案する。
Google Play App StoreのData Safety Reportに関する私たちの真実のアプリケーションに基づいて、当社のフレームワークは、サードパーティのデータ収集プラクティスの生成において、0.75F1スコアを達成しています。
また、市場における地平の真実と保護されたプライバシーの栄養ラベルの矛盾を分析し、我々のフレームワークは90.1%の未解決の問題を検出することができる。
論文 参考訳(メタデータ) (2023-06-19T13:33:44Z) - Is It a Trap? A Large-scale Empirical Study And Comprehensive Assessment
of Online Automated Privacy Policy Generators for Mobile Apps [15.181098379077344]
自動プライバシポリシジェネレータは、モバイルアプリのプライバシポリシを作成することができる。
プライバシーポリシーの約20.1%は、既存のAPPGによって生成される可能性がある。
アプリケーション開発者は、潜在的な落とし穴を避けるために、適切にAPPGを選択して使用する必要があります。
論文 参考訳(メタデータ) (2023-05-05T04:08:18Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。