論文の概要: Privacy Policy Question Answering Assistant: A Query-Guided Extractive
Summarization Approach
- arxiv url: http://arxiv.org/abs/2109.14638v1
- Date: Wed, 29 Sep 2021 18:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 10:44:17.501777
- Title: Privacy Policy Question Answering Assistant: A Query-Guided Extractive
Summarization Approach
- Title(参考訳): プライバシポリシ質問回答アシスタント:クエリガイドによる抽出要約アプローチ
- Authors: Moniba Keymanesh, Micha Elsner, Srinivasan Parthasarathy
- Abstract要約: 入力されたユーザクエリに応答して要約を抽出する自動プライバシポリシ質問応答アシスタントを提案する。
なぜなら、ユーザーはプライバシーに関する質問を、ポリシーの法的言語とは全く異なる言語で表現するからだ。
当社のパイプラインでは,プライバシQAデータセットのユーザクエリの89%に対して,回答を見つけています。
- 参考スコア(独自算出の注目度): 18.51811191325837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing work on making privacy policies accessible has explored new
presentation forms such as color-coding based on the risk factors or
summarization to assist users with conscious agreement. To facilitate a more
personalized interaction with the policies, in this work, we propose an
automated privacy policy question answering assistant that extracts a summary
in response to the input user query. This is a challenging task because users
articulate their privacy-related questions in a very different language than
the legal language of the policy, making it difficult for the system to
understand their inquiry. Moreover, existing annotated data in this domain are
limited. We address these problems by paraphrasing to bring the style and
language of the user's question closer to the language of privacy policies. Our
content scoring module uses the existing in-domain data to find relevant
information in the policy and incorporates it in a summary. Our pipeline is
able to find an answer for 89% of the user queries in the privacyQA dataset.
- Abstract(参考訳): プライバシポリシをアクセス可能にする既存の作業では、リスク要因に基づいたカラーコーディングや、ユーザの意識的な合意を支援する要約といった、新たなプレゼンテーション形式が検討されている。
ポリシーとのよりパーソナライズされたインタラクションを容易にするため、本研究では、入力されたユーザクエリに応じて要約を抽出する自動プライバシーポリシー質問応答アシスタントを提案する。
これは、ユーザーがプライバシー関連の質問をポリシーの法的言語と全く異なる言語で明瞭に表現し、システムが調査を理解するのを困難にしているため、難しい課題である。
さらに、この領域の既存の注釈付きデータは制限されている。
我々は、ユーザの質問のスタイルと言語をプライバシーポリシーの言語に近づけるためにパラフレーズすることで、これらの問題に対処する。
我々のコンテンツスコアリングモジュールは、既存のドメイン内のデータを使用してポリシーの関連情報を見つけ、要約に組み込む。
当社のパイプラインでは、privacyqaデータセットで、ユーザクエリの89%に対する回答を見つけることができます。
関連論文リスト
- Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Operationalizing Contextual Integrity in Privacy-Conscious Assistants [34.70330533067581]
我々は、高度なAIアシスタントがプライバシーの期待に応じて振る舞うように、コンテキスト整合性(CI)を運用することを提案する。
特に、我々は、アシスタントの情報共有アクションをCI準拠にするための多くの戦略を設計し、評価する。
我々の評価は、一般的なWebフォームアプリケーションのアノテーションからなる新しいフォームフィリングベンチマークに基づいている。
論文 参考訳(メタデータ) (2024-08-05T10:53:51Z) - PAQA: Toward ProActive Open-Retrieval Question Answering [34.883834970415734]
本研究の目的は、ユーザクエリとドキュメントの両方に存在する固有の曖昧さを考慮し、関連性のある明確な質問を生成するという課題に取り組むことである。
本稿では,既存のAmbiNQデータセットの拡張であるPAQAを提案する。
次に,様々なモデルの評価を行い,経路探索があいまいさの検出と明瞭な質問の生成にどのように影響するかを評価する。
論文 参考訳(メタデータ) (2024-02-26T14:40:34Z) - Experts-in-the-Loop: Establishing an Effective Workflow in Crafting
Privacy Q&A [0.0]
プライバシポリシをプライバシ質問応答(Q&A)ペアに変換する動的ワークフローを提案する。
そこで我々は,法の専門家と会話デザイナーの学際的なコラボレーションを促進する。
提案するワークフローは,プライバシQ&Aの構築を通じて継続的改善と監視の基盤となる。
論文 参考訳(メタデータ) (2023-11-18T20:32:59Z) - Social Commonsense-Guided Search Query Generation for Open-Domain
Knowledge-Powered Conversations [66.16863141262506]
本稿では,ソーシャルコモンセンスによってガイドされたインターネット検索クエリ生成に焦点を当てた新しいアプローチを提案する。
提案フレームワークは,トピックトラッキング,コモンセンス応答生成,命令駆動クエリ生成を統合することで,受動的ユーザインタラクションに対処する。
論文 参考訳(メタデータ) (2023-10-22T16:14:56Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Exploring Consequences of Privacy Policies with Narrative Generation via
Answer Set Programming [0.0]
プライバシポリシの形式化にAnswer Set Programming(ASP)を使用するフレームワークを提案する。
ASP.NETは、エンドユーザがアクターの観点からポリシーの結果を前方にシミュレートすることを可能にする。
本稿では,健康保険の可搬性と説明責任法(Health Insurance Portability and Accountability Act)の事例を通じて,様々な方法でシステムを利用する方法を紹介する。
論文 参考訳(メタデータ) (2022-12-13T16:44:46Z) - PolicyQA: A Reading Comprehension Dataset for Privacy Policies [77.79102359580702]
既存のWebサイトプライバシポリシ115のコーパスから算出した,25,017の理解スタイルの例を含むデータセットであるPolicyQAを提案する。
既存の2つのニューラルQAモデルを評価し、厳密な分析を行い、ポリシQAが提供する利点と課題を明らかにする。
論文 参考訳(メタデータ) (2020-10-06T09:04:58Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。