論文の概要: Few-shot Policy (de)composition in Conversational Question Answering
- arxiv url: http://arxiv.org/abs/2501.11335v1
- Date: Mon, 20 Jan 2025 08:40:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:25:49.624166
- Title: Few-shot Policy (de)composition in Conversational Question Answering
- Title(参考訳): 対話型質問応答におけるデコンポジション
- Authors: Kyle Erwin, Guy Axelrod, Maria Chang, Achille Fokoue, Maxwell Crouse, Soham Dan, Tian Gao, Rosario Uceda-Sosa, Ndivhuwo Makondo, Naweed Khan, Alexander Gray,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いて数ショット設定でポリシーコンプライアンスを検出するニューラルシンボリックフレームワークを提案する。
提案手法は,回答すべきサブクエストを抽出し,文脈情報から真理値を割り当て,与えられたポリシーから論理文の集合を明示的に生成することで,政策コンプライアンスに関する会話に対して健全な理由を示す。
本手法は,PCDおよび会話機械読解ベンチマークであるShARCに適用し,タスク固有の微調整を伴わずに競合性能を示す。
- 参考スコア(独自算出の注目度): 54.259440408606515
- License:
- Abstract: The task of policy compliance detection (PCD) is to determine if a scenario is in compliance with respect to a set of written policies. In a conversational setting, the results of PCD can indicate if clarifying questions must be asked to determine compliance status. Existing approaches usually claim to have reasoning capabilities that are latent or require a large amount of annotated data. In this work, we propose logical decomposition for policy compliance (LDPC): a neuro-symbolic framework to detect policy compliance using large language models (LLMs) in a few-shot setting. By selecting only a few exemplars alongside recently developed prompting techniques, we demonstrate that our approach soundly reasons about policy compliance conversations by extracting sub-questions to be answered, assigning truth values from contextual information, and explicitly producing a set of logic statements from the given policies. The formulation of explicit logic graphs can in turn help answer PCDrelated questions with increased transparency and explainability. We apply this approach to the popular PCD and conversational machine reading benchmark, ShARC, and show competitive performance with no task-specific finetuning. We also leverage the inherently interpretable architecture of LDPC to understand where errors occur, revealing ambiguities in the ShARC dataset and highlighting the challenges involved with reasoning for conversational question answering.
- Abstract(参考訳): ポリシーコンプライアンス検出(PCD)のタスクは、シナリオが記述されたポリシーの集合に準拠しているかどうかを判断することである。
会話設定では、PCDの結果は、コンプライアンス状態を決定するために、質問を明確にする必要があるかどうかを示すことができる。
既存のアプローチは通常、遅延または大量の注釈付きデータを必要とする推論能力を持っていると主張する。
本研究では,大規模言語モデル (LLM) を用いて数ショットでポリシーコンプライアンスを検出するニューラルシンボリック・フレームワークであるポリシーコンプライアンス(LDPC)の論理的分解を提案する。
提案手法は,最近開発されたプロンプト技術と並行して,ごく少数の経験者のみを選択することで,回答すべきサブクエストを抽出し,文脈情報から真理値を割り当て,与えられたポリシーから論理文の集合を明示的に生成することで,政策コンプライアンスの会話に対して健全な理由を示すものである。
明示的な論理グラフの定式化は、さらに透明性と説明可能性を高めて、PCD関連の質問に答えるのに役立つ。
本手法は,PCDおよび会話機械読解ベンチマークであるShARCに適用し,タスク固有の微調整を伴わずに競合性能を示す。
LDPCの本質的に解釈可能なアーキテクチャを活用して、エラーの発生箇所を理解し、ShARCデータセットの曖昧さを明らかにし、会話型質問応答の推論に関わる課題を強調します。
関連論文リスト
- QUDSELECT: Selective Decoding for Questions Under Discussion Parsing [90.92351108691014]
Question Under Examination (QUD) は、暗黙の質問を用いて文間の会話関係を明らかにするための談話フレームワークである。
本稿では,QUD基準を考慮したQUD依存構造を選択的に復号する共同学習フレームワークであるQUDSELECTを紹介する。
提案手法は,人的評価において9%,自動評価において4%,最先端のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-02T06:46:08Z) - Controllable Conversations: Planning-Based Dialogue Agent with Large Language Models [52.7201882529976]
計画型会話エージェント (PCA) は, LLM駆動エージェントの制御性向上を目的とした対話フレームワークである。
GPT-4oを用いた半自動ロールプレイングシステムを用いて,SOP注釈付きマルチシナリオ対話からなるデータセットを提案する。
また、SOP予測のための教師付き微調整と思考の連鎖を統合し、モンテカルロ木探索を対話中の最適な行動計画に活用する手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T12:23:02Z) - Learning to Clarify: Multi-turn Conversations with Action-Based Contrastive Self-Training [33.57497419019826]
アクションベースのコントラスト自己学習は、多ターン会話におけるサンプル効率のよい対話ポリシー学習を可能にする。
ACTは、教師付き微調整とDPOのための標準的なアプローチよりも、相当な会話モデリングの改善を示す。
論文 参考訳(メタデータ) (2024-05-31T22:44:48Z) - Controlled Query Evaluation through Epistemic Dependencies [7.502796412126707]
本稿では,このフレームワークの表現能力を示し,CQEの(一対の)結合クエリにおけるデータ複雑性について検討する。
本稿では,非循環的依存関係の場合のトラクタビリティを,適切なクエリアルゴリズムを提供することにより証明する。
論文 参考訳(メタデータ) (2024-05-03T19:48:07Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Cross-Policy Compliance Detection via Question Answering [13.373804837863155]
本稿では,政策コンプライアンス検出を質問応答に分解することで解決することを提案する。
このアプローチにより,特にクロス政治設定において,精度が向上することが実証された。
ポリシーコンプライアンスが決定できない場合、シナリオから欠落した情報を明示的に特定する。
論文 参考訳(メタデータ) (2021-09-08T15:47:41Z) - Interrogating the Black Box: Transparency through Information-Seeking
Dialogues [9.281671380673306]
本稿では,倫理政策の遵守を調査するために,学習エージェントに質問する調査エージェントを構築することを提案する。
この形式的対話フレームワークが本論文の主な貢献である。
形式的な対話フレームワークは、コンプライアンスチェックの分野と不透明なシステムの特性の分析の両方において、多くの道を開きます。
論文 参考訳(メタデータ) (2021-02-09T09:14:04Z) - PolicyQA: A Reading Comprehension Dataset for Privacy Policies [77.79102359580702]
既存のWebサイトプライバシポリシ115のコーパスから算出した,25,017の理解スタイルの例を含むデータセットであるPolicyQAを提案する。
既存の2つのニューラルQAモデルを評価し、厳密な分析を行い、ポリシQAが提供する利点と課題を明らかにする。
論文 参考訳(メタデータ) (2020-10-06T09:04:58Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z) - Fast Compliance Checking with General Vocabularies [0.0]
データ保護ポリシーを表すOWL2プロファイルを導入する。
この言語では、企業のデータ利用ポリシーを、データ対象者の同意に従ってチェックすることができる。
IBQ推論を利用して、ポリシー言語と語彙言語の特殊推論を統合します。
論文 参考訳(メタデータ) (2020-01-16T09:08:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。