論文の概要: Operationalizing Contextual Integrity in Privacy-Conscious Assistants
- arxiv url: http://arxiv.org/abs/2408.02373v2
- Date: Fri, 13 Sep 2024 13:09:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-16 22:38:12.963362
- Title: Operationalizing Contextual Integrity in Privacy-Conscious Assistants
- Title(参考訳): プライバシーに配慮したアシスタントにおけるコンテキスト統合の運用
- Authors: Sahra Ghalebikesabi, Eugene Bagdasaryan, Ren Yi, Itay Yona, Ilia Shumailov, Aneesh Pappu, Chongyang Shi, Laura Weidinger, Robert Stanforth, Leonard Berrada, Pushmeet Kohli, Po-Sen Huang, Borja Balle,
- Abstract要約: 我々は、高度なAIアシスタントがプライバシーの期待に応じて振る舞うように、コンテキスト整合性(CI)を運用することを提案する。
特に、我々は、アシスタントの情報共有アクションをCI準拠にするための多くの戦略を設計し、評価する。
我々の評価は、一般的なWebフォームアプリケーションのアノテーションからなる新しいフォームフィリングベンチマークに基づいている。
- 参考スコア(独自算出の注目度): 34.70330533067581
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced AI assistants combine frontier LLMs and tool access to autonomously perform complex tasks on behalf of users. While the helpfulness of such assistants can increase dramatically with access to user information including emails and documents, this raises privacy concerns about assistants sharing inappropriate information with third parties without user supervision. To steer information-sharing assistants to behave in accordance with privacy expectations, we propose to operationalize contextual integrity (CI), a framework that equates privacy with the appropriate flow of information in a given context. In particular, we design and evaluate a number of strategies to steer assistants' information-sharing actions to be CI compliant. Our evaluation is based on a novel form filling benchmark composed of human annotations of common webform applications, and it reveals that prompting frontier LLMs to perform CI-based reasoning yields strong results.
- Abstract(参考訳): 高度なAIアシスタントは、フロンティアLSMとツールアクセスを組み合わせて、ユーザに代わって自律的に複雑なタスクを実行する。
このようなアシスタントの利便性は、メールやドキュメントなどのユーザー情報へのアクセスによって劇的に向上するが、これは、アシスタントがユーザーの監督なしに第三者と不適切な情報を共有することに対するプライバシー上の懸念を提起する。
情報共有アシスタントをプライバシの期待に応えて振る舞うために,プライバシを所定のコンテキストにおける適切な情報の流れと一致するフレームワークであるコンテキスト整合性(CI)を運用することを提案する。
特に、我々は、アシスタントの情報共有アクションをCI準拠にするための多くの戦略を設計し、評価する。
我々の評価は、一般的なWebフォームアプリケーションのアノテーションからなる新しいフォームフィリングベンチマークに基づいており、フロンティアLSMがCIベースの推論を行うよう促すと、強い結果が得られます。
関連論文リスト
- AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [75.85554113398626]
我々は、既存のAIエージェントと将来のAIエージェントが、潜在的にプライベートな情報の処理をどの程度制限できるかを評価するために、AgentDAMと呼ばれるベンチマークを開発する。
我々のベンチマークは、現実的なWebインタラクションシナリオをシミュレートし、既存のWebナビゲーションエージェントすべてに適用できる。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - PersonaBench: Evaluating AI Models on Understanding Personal Information through Accessing (Synthetic) Private User Data [76.21047984886273]
パーソナライゼーションは、AIアシスタント、特に個々のユーザーと連携するプライベートAIモデルのコンテキストにおいて重要である。
このようなデータのセンシティブな性質のため、AIモデルのユーザ理解能力を評価するためのデータセットは公開されていない。
多様なユーザプロファイルを作成する合成データ生成パイプラインと、人間の活動をシミュレートするプライベートドキュメントを導入する。
論文 参考訳(メタデータ) (2025-02-28T00:43:35Z) - Protecting Users From Themselves: Safeguarding Contextual Privacy in Interactions with Conversational Agents [33.26308626066122]
LLMとのユーザインタラクションにおけるコンテキストプライバシの概念を特徴付ける。
これは、ユーザーが意図した目標を達成するのに必要な情報のみを(ベンダー)が開示することを保証することで、プライバシー上のリスクを最小限にすることを目的としている。
論文 参考訳(メタデータ) (2025-02-22T09:05:39Z) - Privacy-Preserving Customer Support: A Framework for Secure and Scalable Interactions [0.0]
本稿では,大規模言語モデル(LLM)をゼロショット学習モードで活用する新しいアプローチとして,プライバシー保護ゼロショット学習(PP-ZSL)フレームワークを提案する。
従来の機械学習手法とは異なり、PP-ZSLは、事前学習されたLLMを使用して直接応答を生成することで、機密データに対する局所的なトレーニングを不要にしている。
このフレームワークには、リアルタイムデータ匿名化による機密情報の修正やマスク、ドメイン固有のクエリ解決のための検索強化生成(RAG)、規制基準の遵守を保証するための堅牢な後処理が含まれている。
論文 参考訳(メタデータ) (2024-12-10T17:20:47Z) - Navigating the Unknown: A Chat-Based Collaborative Interface for Personalized Exploratory Tasks [35.09558253658275]
本稿ではCARE(Collaborative Assistant for Personalized Exploration)を紹介する。
CARE は多エージェント LLM フレームワークと構造化ユーザインタフェースを組み合わせることにより,探索作業におけるパーソナライズを向上するシステムである。
この結果から, パーソナライズされた問題解決・探索において, CARE が LLM ベースのシステムを受動的情報検索システムから積極的パートナーに転換する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-31T15:30:55Z) - Empowering Users in Digital Privacy Management through Interactive LLM-Based Agents [13.064730964328264]
本稿では,対話型対話エージェントによるユーザプライバシポリシの理解を高めるために,大規模言語モデル(LLM)の新たな応用を提案する。
LLMは、データプラクティス識別、選択識別、ポリシー要約、プライバシ質問回答といったタスクにおいて、従来のモデルよりも大幅に優れています。
我々は,Webサイトプライバシポリシを処理するエキスパートシステムとして機能し,複雑な法的言語を通じてユーザを誘導する,革新的なLCMベースのエージェントを紹介した。
論文 参考訳(メタデータ) (2024-10-15T02:16:59Z) - AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure [42.96087647326612]
我々は、さまざまな社会的関係やタスクシナリオにまたがるAIデリゲートのユーザの嗜好を調査するために、パイロットスタディを実施している。
次に、プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
論文 参考訳(メタデータ) (2024-09-26T08:45:15Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Experts-in-the-Loop: Establishing an Effective Workflow in Crafting
Privacy Q&A [0.0]
プライバシポリシをプライバシ質問応答(Q&A)ペアに変換する動的ワークフローを提案する。
そこで我々は,法の専門家と会話デザイナーの学際的なコラボレーションを促進する。
提案するワークフローは,プライバシQ&Aの構築を通じて継続的改善と監視の基盤となる。
論文 参考訳(メタデータ) (2023-11-18T20:32:59Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Privacy Policy Question Answering Assistant: A Query-Guided Extractive
Summarization Approach [18.51811191325837]
入力されたユーザクエリに応答して要約を抽出する自動プライバシポリシ質問応答アシスタントを提案する。
なぜなら、ユーザーはプライバシーに関する質問を、ポリシーの法的言語とは全く異なる言語で表現するからだ。
当社のパイプラインでは,プライバシQAデータセットのユーザクエリの89%に対して,回答を見つけています。
論文 参考訳(メタデータ) (2021-09-29T18:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。