論文の概要: Experts-in-the-Loop: Establishing an Effective Workflow in Crafting
Privacy Q&A
- arxiv url: http://arxiv.org/abs/2311.11161v1
- Date: Sat, 18 Nov 2023 20:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 10:21:00.714879
- Title: Experts-in-the-Loop: Establishing an Effective Workflow in Crafting
Privacy Q&A
- Title(参考訳): 最先端の専門家:プライバシのQ&Aに効果的なワークフローを確立する
- Authors: Zahra Kolagar, Anna Katharina Leschanowsky, Birgit Popp
- Abstract要約: プライバシポリシをプライバシ質問応答(Q&A)ペアに変換する動的ワークフローを提案する。
そこで我々は,法の専門家と会話デザイナーの学際的なコラボレーションを促進する。
提案するワークフローは,プライバシQ&Aの構築を通じて継続的改善と監視の基盤となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Privacy policies play a vital role in safeguarding user privacy as legal
jurisdictions worldwide emphasize the need for transparent data processing.
While the suitability of privacy policies to enhance transparency has been
critically discussed, employing conversational AI systems presents unique
challenges in informing users effectively. In this position paper, we propose a
dynamic workflow for transforming privacy policies into privacy
question-and-answer (Q&A) pairs to make privacy policies easily accessible
through conversational AI. Thereby, we facilitate interdisciplinary
collaboration among legal experts and conversation designers, while also
considering the utilization of large language models' generative capabilities
and addressing associated challenges. Our proposed workflow underscores
continuous improvement and monitoring throughout the construction of privacy
Q&As, advocating for comprehensive review and refinement through an
experts-in-the-loop approach.
- Abstract(参考訳): プライバシーポリシーは、世界中の司法管轄区域が透明なデータ処理の必要性を強調しているため、ユーザーのプライバシーを守る上で重要な役割を果たす。
透明性を高めるためのプライバシーポリシーの適合性は批判的に議論されているが、会話型aiシステムを採用することは、ユーザに効果的に通知する上でのユニークな課題である。
本稿では,プライバシポリシをq&aペア(privacy question-and-answer)に変換するダイナミックワークフローを提案する。
そこで我々は,大規模言語モデルの生成能力を活用し,関連する課題に対処しつつ,法律専門家と会話デザイナーの学際的なコラボレーションを促進する。
提案するワークフローは,プライバシq&aの構築を通じて継続的改善と監視の基盤となり,エキスパート・イン・ザ・ループアプローチによる包括的なレビューと改善を提唱する。
関連論文リスト
- Assessing Privacy Policies with AI: Ethical, Legal, and Technical Challenges [6.916147439085307]
大きな言語モデル(LLM)は、ユーザのプライバシポリシを自動評価するために使用することができる。
このアプローチの課題を,技術的実現性,倫理的意味,法的適合性の3つの柱で検討する。
本研究は,今後の研究の可能性を特定し,LLM技術の利用に関する議論を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-10T21:36:35Z) - AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure [42.96087647326612]
我々は、さまざまな社会的関係やタスクシナリオにまたがるAIデリゲートのユーザの嗜好を調査するために、パイロットスタディを実施している。
次に、プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
論文 参考訳(メタデータ) (2024-09-26T08:45:15Z) - Operationalizing Contextual Integrity in Privacy-Conscious Assistants [34.70330533067581]
我々は、高度なAIアシスタントがプライバシーの期待に応じて振る舞うように、コンテキスト整合性(CI)を運用することを提案する。
特に、我々は、アシスタントの情報共有アクションをCI準拠にするための多くの戦略を設計し、評価する。
我々の評価は、一般的なWebフォームアプリケーションのアノテーションからなる新しいフォームフィリングベンチマークに基づいている。
論文 参考訳(メタデータ) (2024-08-05T10:53:51Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - GoldCoin: Grounding Large Language Models in Privacy Laws via Contextual Integrity Theory [44.297102658873726]
これまでの研究では、さまざまなプライバシー攻撃、防御、評価を狭義に定義されたパターンの中で探索することで、プライバシを研究する。
我々は,プライバシ違反を評価する司法法において,LLMを効果的に活用するための新しい枠組みであるGoldCoinを紹介した。
我々のフレームワークは、コンテキスト整合性の理論をブリッジとして活用し、関連するプライバシー法に基づく多数の合成シナリオを作成する。
論文 参考訳(メタデータ) (2024-06-17T02:27:32Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Differentially Private Multi-Agent Planning for Logistic-like Problems [70.3758644421664]
本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
論文 参考訳(メタデータ) (2020-08-16T03:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。