論文の概要: Answering Questions in Stages: Prompt Chaining for Contract QA
- arxiv url: http://arxiv.org/abs/2410.12840v1
- Date: Wed, 09 Oct 2024 17:14:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-20 09:11:11.511775
- Title: Answering Questions in Stages: Prompt Chaining for Contract QA
- Title(参考訳): ステージでの質問に答える - 契約QAのためのプロンプトチェイン
- Authors: Adam Roegiest, Radha Chitta,
- Abstract要約: 複数選択質問に対する構造化された回答を生成するための2段階のプロンプト連鎖を提案する。
我々は、この技術がうまく機能する状況と、さらなる改良が必要な領域を分析する。
- 参考スコア(独自算出の注目度): 1.0359008237358598
- License:
- Abstract: Finding answers to legal questions about clauses in contracts is an important form of analysis in many legal workflows (e.g., understanding market trends, due diligence, risk mitigation) but more important is being able to do this at scale. Prior work showed that it is possible to use large language models with simple zero-shot prompts to generate structured answers to questions, which can later be incorporated into legal workflows. Such prompts, while effective on simple and straightforward clauses, fail to perform when the clauses are long and contain information not relevant to the question. In this paper, we propose two-stage prompt chaining to produce structured answers to multiple-choice and multiple-select questions and show that they are more effective than simple prompts on more nuanced legal text. We analyze situations where this technique works well and areas where further refinement is needed, especially when the underlying linguistic variations are more than can be captured by simply specifying possible answers. Finally, we discuss future research that seeks to refine this work by improving stage one results by making them more question-specific.
- Abstract(参考訳): 契約の条項に関する法的問題に対する答を見つけることは、多くの法的ワークフロー(例えば、市場動向の理解、デューディリジェンス、リスク軽減など)において重要な分析形態であるが、より重要なのは、これを大規模に行うことができることだ。
以前の研究は、単純なゼロショットプロンプトを持つ大きな言語モデルを使用して、質問に対する構造化された回答を生成することが可能であり、後に法的ワークフローに組み込むことができることを示した。
このようなプロンプトは、単純で簡単な節では有効であるが、節が長く、質問に関係のない情報を含むと実行できない。
本稿では,複数選択質問に対する構造化された回答を生成するための2段階のプロンプト連鎖を提案し,よりニュアンスな法文上の単純なプロンプトよりも効果的であることを示す。
我々は,この手法がうまく機能する状況と,さらなる改良が必要な領域を解析する。
最後に、この研究を改良し、ステージ1の結果を改善し、より質問特異的にすることで、今後の研究について論じる。
関連論文リスト
- Asking Multimodal Clarifying Questions in Mixed-Initiative
Conversational Search [89.1772985740272]
混合開始型会話検索システムでは、質問を明確にすることで、意図を単一のクエリで表現するのに苦労するユーザを支援する。
マルチモーダル情報が関係するシナリオでは、非テクスチャ情報を用いることで、明確化のプロセスを改善することができると仮定する。
質問を明確にする4k以上のマルチモーダルを含むMelonというデータセットを収集し、14k以上の画像で濃縮する。
クエリの明確化フェーズにおけるマルチモーダルコンテンツの重要性を理解するために,いくつかの解析を行った。
論文 参考訳(メタデータ) (2024-02-12T16:04:01Z) - Estimating the Usefulness of Clarifying Questions and Answers for
Conversational Search [17.0363715044341]
本稿では,質問を明確化するための回答処理手法を提案する。
具体的には,利用者が提示した質問と回答の提示による有用性を評価するための分類器を提案する。
その結果, 強い非混合開始基線よりも顕著な改善が認められた。
論文 参考訳(メタデータ) (2024-01-21T11:04:30Z) - A Search for Prompts: Generating Structured Answers from Contracts [40.99057706243682]
我々は、契約条項に関する質問に対して、1つ(またはそれ以上)の固定された回答を返そうとする法的質問応答の一形態を示す。
我々は,OpenAIのtextitGPT-3.5-Turbo を用いた法的質問応答プロンプトの探索手法について議論し,洞察の要約を提供する。
論文 参考訳(メタデータ) (2023-10-16T07:29:38Z) - Interpretable Long-Form Legal Question Answering with
Retrieval-Augmented Large Language Models [10.834755282333589]
長文の法的問合せデータセットは、専門家によるフランス語の法的質問1,868件からなる。
実験結果から,自動評価指標について有望な性能を示した。
LLeQAは、専門家によって注釈付けされた唯一の包括的なロングフォームLQAデータセットの1つであり、重要な現実世界の問題を解決するために研究を加速するだけでなく、特殊な領域におけるNLPモデルを評価するための厳密なベンチマークとしても機能する可能性がある。
論文 参考訳(メタデータ) (2023-09-29T08:23:19Z) - Elaborative Simplification as Implicit Questions Under Discussion [51.17933943734872]
本稿では,QUD フレームワークのレンズによる共同作業の簡略化について考察する。
本研究は,QUDを明示的にモデル化することで,作業の単純化と,作業内容と作業内容の関連性について,重要な理解が得られていることを示す。
論文 参考訳(メタデータ) (2023-05-17T17:26:16Z) - HPE:Answering Complex Questions over Text by Hybrid Question Parsing and
Execution [92.69684305578957]
テキストQAにおける質問解析と実行の枠組みを提案する。
提案したフレームワークは、トップダウンの質問パースとして、ボトムアップの回答バックトラックとみなすことができる。
MuSiQue,2WikiQA,HotpotQA,およびNQに関する実験により,提案した解析およびハイブリッド実行フレームワークが,教師付き,少数ショット,ゼロショット設定における既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-12T22:37:06Z) - Keeping the Questions Conversational: Using Structured Representations
to Resolve Dependency in Conversational Question Answering [26.997542897342164]
本稿では,中間表現を会話の手がかりとして捉え,生成するための新しいフレームワークCONVSR(CONVQA using Structured Representations)を提案する。
我々はQuACとCANARDのデータセット上でモデルをテストし、提案するフレームワークが標準的な質問書き直しモデルよりも優れたF1スコアを達成できることを実験結果により示す。
論文 参考訳(メタデータ) (2023-04-14T13:42:32Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Asking It All: Generating Contextualized Questions for any Semantic Role [56.724302729493594]
本稿では,役割質問生成の課題について紹介する。
このタスクの2段階モデルを開発し、まず、各ロールに対する文脈に依存しない質問プロトタイプを作成する。
我々の評価は、述語と役割の大規模かつ広範な包括的領域に対して、多種多様でよく形成された質問を生成することを示す。
論文 参考訳(メタデータ) (2021-09-10T12:31:14Z) - Open-Retrieval Conversational Machine Reading [80.13988353794586]
会話機械読解では、システムは自然言語規則を解釈し、ハイレベルな質問に答え、フォローアップの明確化を問う必要がある。
既存の作業では、ルールテキストがユーザ毎の質問に対して提供されると仮定し、実際のシナリオにおいて必須の検索ステップを無視する。
本研究では,対話型機械読解のオープンリトリーバル設定を提案し,検討する。
論文 参考訳(メタデータ) (2021-02-17T08:55:01Z) - Asking Complex Questions with Multi-hop Answer-focused Reasoning [16.01240703148773]
複雑で意味のある質問を問うマルチホップ質問生成という新しいタスクを提案する。
そこで本研究では,回答中心のエンティティグラフに基づくマルチホップ応答中心の推論を提案する。
論文 参考訳(メタデータ) (2020-09-16T00:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。