論文の概要: Assessing Privacy Policies with AI: Ethical, Legal, and Technical Challenges
- arxiv url: http://arxiv.org/abs/2410.08381v1
- Date: Thu, 10 Oct 2024 21:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 03:36:35.352757
- Title: Assessing Privacy Policies with AI: Ethical, Legal, and Technical Challenges
- Title(参考訳): AIによるプライバシポリシの評価 - 倫理的,法的,技術的課題
- Authors: Irem Aydin, Hermann Diebel-Fischer, Vincent Freiberger, Julia Möller-Klapperich, Erik Buchmann, Michael Färber, Anne Lauber-Rönsberg, Birte Platow,
- Abstract要約: 大きな言語モデル(LLM)は、ユーザのプライバシポリシを自動評価するために使用することができる。
このアプローチの課題を,技術的実現性,倫理的意味,法的適合性の3つの柱で検討する。
本研究は,今後の研究の可能性を特定し,LLM技術の利用に関する議論を促進することを目的としている。
- 参考スコア(独自算出の注目度): 6.916147439085307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing use of Machine Learning and Artificial Intelligence (AI), particularly Large Language Models (LLMs) like OpenAI's GPT series, leads to disruptive changes across organizations. At the same time, there is a growing concern about how organizations handle personal data. Thus, privacy policies are essential for transparency in data processing practices, enabling users to assess privacy risks. However, these policies are often long and complex. This might lead to user confusion and consent fatigue, where users accept data practices against their interests, and abusive or unfair practices might go unnoticed. LLMss can be used to assess privacy policies for users automatically. In this interdisciplinary work, we explore the challenges of this approach in three pillars, namely technical feasibility, ethical implications, and legal compatibility of using LLMs to assess privacy policies. Our findings aim to identify potential for future research, and to foster a discussion on the use of LLM technologies for enabling users to fulfil their important role as decision-makers in a constantly developing AI-driven digital economy.
- Abstract(参考訳): OpenAIのGPTシリーズのような機械学習と人工知能(AI)の利用の増加、特にLarge Language Models(LLM)は、組織全体に破壊的な変化をもたらします。
同時に、組織が個人データをどう扱うかという懸念も高まっている。
したがって、プライバシーポリシーはデータ処理のプラクティスにおける透明性に不可欠であり、ユーザーはプライバシーリスクを評価することができる。
しかし、これらの政策はしばしば長く複雑である。
これはユーザーの混乱と同意の疲労につながる可能性があり、ユーザーは自分の利益に対してデータプラクティスを受け入れ、虐待的または不公平なプラクティスは気づかないかもしれない。
LLMは、ユーザのプライバシポリシを自動評価するために使用することができる。
本研究は,3つの柱,すなわち技術実現可能性,倫理的意味,およびプライバシーポリシーの評価にLLMを使用することの法的適合性について考察する。
本研究の目的は,AI駆動型デジタル経済における意思決定者としての重要な役割を,ユーザが果たす上でのLLM技術の利用に関する議論を促進することにある。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - Privacy-Preserving Customer Support: A Framework for Secure and Scalable Interactions [0.0]
本稿では,大規模言語モデル(LLM)をゼロショット学習モードで活用する新しいアプローチとして,プライバシー保護ゼロショット学習(PP-ZSL)フレームワークを提案する。
従来の機械学習手法とは異なり、PP-ZSLは、事前学習されたLLMを使用して直接応答を生成することで、機密データに対する局所的なトレーニングを不要にしている。
このフレームワークには、リアルタイムデータ匿名化による機密情報の修正やマスク、ドメイン固有のクエリ解決のための検索強化生成(RAG)、規制基準の遵守を保証するための堅牢な後処理が含まれている。
論文 参考訳(メタデータ) (2024-12-10T17:20:47Z) - How Privacy-Savvy Are Large Language Models? A Case Study on Compliance and Privacy Technical Review [15.15468770348023]
プライバシ情報抽出(PIE)、法および規制キーポイント検出(KPD)、質問応答(QA)などのプライバシー関連タスクにおいて、大規模言語モデルの性能を評価する。
本稿では, BERT, GPT-3.5, GPT-4, カスタムモデルなど, プライバシコンプライアンスチェックや技術プライバシレビューの実行能力について検討する。
LLMは、プライバシーレビューの自動化と規制上の相違点の特定を約束する一方で、法律標準の進化に完全に準拠する能力において、大きなギャップが持続している。
論文 参考訳(メタデータ) (2024-09-04T01:51:37Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Experts-in-the-Loop: Establishing an Effective Workflow in Crafting
Privacy Q&A [0.0]
プライバシポリシをプライバシ質問応答(Q&A)ペアに変換する動的ワークフローを提案する。
そこで我々は,法の専門家と会話デザイナーの学際的なコラボレーションを促進する。
提案するワークフローは,プライバシQ&Aの構築を通じて継続的改善と監視の基盤となる。
論文 参考訳(メタデータ) (2023-11-18T20:32:59Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z) - Beyond privacy regulations: an ethical approach to data usage in
transportation [64.86110095869176]
本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
論文 参考訳(メタデータ) (2020-04-01T15:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。