論文の概要: AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure
- arxiv url: http://arxiv.org/abs/2409.17642v1
- Date: Thu, 26 Sep 2024 08:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 21:53:57.455194
- Title: AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure
- Title(参考訳): AIがデュアルフォーカスで委任:プライバシと戦略的自己開示を保証する
- Authors: Xi Chen, Zhiyang Zhang, Fangkai Yang, Xiaoting Qin, Chao Du, Xi Cheng, Hangxin Liu, Qingwei Lin, Saravan Rajmohan, Dongmei Zhang, Qi Zhang,
- Abstract要約: 我々は、さまざまな社会的関係やタスクシナリオにまたがるAIデリゲートのユーザの嗜好を調査するために、パイロットスタディを実施している。
次に、プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
- 参考スコア(独自算出の注目度): 42.96087647326612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language model (LLM)-based AI delegates are increasingly utilized to act on behalf of users, assisting them with a wide range of tasks through conversational interfaces. Despite their advantages, concerns arise regarding the potential risk of privacy leaks, particularly in scenarios involving social interactions. While existing research has focused on protecting privacy by limiting the access of AI delegates to sensitive user information, many social scenarios require disclosing private details to achieve desired outcomes, necessitating a balance between privacy protection and disclosure. To address this challenge, we conduct a pilot study to investigate user preferences for AI delegates across various social relations and task scenarios, and then propose a novel AI delegate system that enables privacy-conscious self-disclosure. Our user study demonstrates that the proposed AI delegate strategically protects privacy, pioneering its use in diverse and dynamic social interactions.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースのAIデリゲートは、ユーザに代わって行動するためにますます利用され、会話インターフェースを通じて幅広いタスクを支援している。
その利点にもかかわらず、特に社会的相互作用を含むシナリオにおいて、プライバシー漏洩の潜在的なリスクについて懸念が生じる。
既存の研究は、機密性の高いユーザー情報へのAIデリゲートへのアクセスを制限することでプライバシ保護に重点を置いているが、多くの社会的シナリオでは、望ましい結果を達成するためにプライベートな詳細を開示し、プライバシ保護と開示のバランスを取る必要がある。
この課題に対処するために、さまざまな社会的関係やタスクシナリオにわたるAIデリゲートに対するユーザの嗜好を調査するためのパイロット研究を行い、プライバシを重視した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Assessing Privacy Policies with AI: Ethical, Legal, and Technical Challenges [6.916147439085307]
大きな言語モデル(LLM)は、ユーザのプライバシポリシを自動評価するために使用することができる。
このアプローチの課題を,技術的実現性,倫理的意味,法的適合性の3つの柱で検討する。
本研究は,今後の研究の可能性を特定し,LLM技術の利用に関する議論を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-10T21:36:35Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Experts-in-the-Loop: Establishing an Effective Workflow in Crafting
Privacy Q&A [0.0]
プライバシポリシをプライバシ質問応答(Q&A)ペアに変換する動的ワークフローを提案する。
そこで我々は,法の専門家と会話デザイナーの学際的なコラボレーションを促進する。
提案するワークフローは,プライバシQ&Aの構築を通じて継続的改善と監視の基盤となる。
論文 参考訳(メタデータ) (2023-11-18T20:32:59Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Privacy in Open Search: A Review of Challenges and Solutions [0.6445605125467572]
情報検索(IR)は、攻撃や意図しない文書や検索履歴の開示など、プライバシー上の脅威に晒されている。
この研究は、ユーザの生成したテキストデータを含むタスクに焦点を当て、最近のIR文学におけるプライバシーに関するオープンな課題を強調し、議論することを目的としている。
論文 参考訳(メタデータ) (2021-10-20T18:38:48Z) - Persuasion Meets AI: Ethical Considerations for the Design of Social
Engineering Countermeasures [0.0]
FacebookやInstagramのようなSNSのプライバシーは、人々の自己開示決定と密接に関連している。
オンラインのプライバシー決定は、しばしば、不信任者に対して機密データを開示する義務を負わせる、急激なリスク判断に基づいている。
本稿では,nudging機構がAIベースの対策の開発にもたらす倫理的課題について詳述する。
論文 参考訳(メタデータ) (2020-09-27T14:24:29Z) - Differentially Private Multi-Agent Planning for Logistic-like Problems [70.3758644421664]
本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
論文 参考訳(メタデータ) (2020-08-16T03:43:09Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。