論文の概要: QBR: A Question-Bank-Based Approach to Fine-Grained Legal Knowledge Retrieval for the General Public
- arxiv url: http://arxiv.org/abs/2505.04883v1
- Date: Thu, 08 May 2025 01:43:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.714736
- Title: QBR: A Question-Bank-Based Approach to Fine-Grained Legal Knowledge Retrieval for the General Public
- Title(参考訳): QBR: 一般市民のための微粒な法知識検索への質問紙に基づくアプローチ
- Authors: Mingruo Yuan, Ben Kao, Tien-Hsuan Wu,
- Abstract要約: 知識ギャップを埋める有効な媒体として質問銀行(QB)を用いたQBRと呼ばれる方法論を提案する。
文書内の知識単位の埋め込みを強化するために,QBがトレーニングサンプルの導出にどのように利用されているかを示す。
これらには、より正確で効率的で説明可能なドキュメント検索、検索結果の理解の改善、そして非常に効果的なきめ細かい知識検索が含まれる。
- 参考スコア(独自算出の注目度): 7.373617024876726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval of legal knowledge by the general public is a challenging problem due to the technicality of the professional knowledge and the lack of fundamental understanding by laypersons on the subject. Traditional information retrieval techniques assume that users are capable of formulating succinct and precise queries for effective document retrieval. In practice, however, the wide gap between the highly technical contents and untrained users makes legal knowledge retrieval very difficult. We propose a methodology, called QBR, which employs a Questions Bank (QB) as an effective medium for bridging the knowledge gap. We show how the QB is used to derive training samples to enhance the embedding of knowledge units within documents, which leads to effective fine-grained knowledge retrieval. We discuss and evaluate through experiments various advantages of QBR over traditional methods. These include more accurate, efficient, and explainable document retrieval, better comprehension of retrieval results, and highly effective fine-grained knowledge retrieval. We also present some case studies and show that QBR achieves social impact by assisting citizens to resolve everyday legal concerns.
- Abstract(参考訳): 一般大衆による法的な知識の検索は、専門知識の専門性と、その主題に関する一般人による基本的な理解の欠如により、難しい問題である。
従来の情報検索技術は、ユーザが効果的な文書検索のための簡潔さと正確なクエリを定式化できると仮定している。
しかし、実際には、高度技術コンテンツと未学習ユーザーとのギャップは、法律知識の検索を非常に困難にしている。
知識ギャップを埋める有効な媒体として質問銀行(QB)を用いたQBRと呼ばれる方法論を提案する。
本稿では,QBを用いて文書内の知識単位の埋め込みを向上させる訓練サンプルを導出し,より詳細な知識検索を効果的に行う方法を示す。
従来の手法よりもQBRの様々な利点について検討し,評価する。
これらには、より正確で効率的で説明可能なドキュメント検索、検索結果の理解の改善、そして非常に効果的なきめ細かい知識検索が含まれる。
また,QBRは市民が日常的な法的懸念を解決できるように支援することで社会的影響を達成することを示す事例も提示する。
関連論文リスト
- A Multi-Source Heterogeneous Knowledge Injected Prompt Learning Method for Legal Charge Prediction [3.52209555388364]
本稿では,ケース記述をモデル化するための素早い学習フレームワークに基づく手法を提案する。
我々は,法的知識ベース,会話型LLM,法的記事から多元的外部知識を活用する。
提案手法は,CAIL-2018の法定電荷予測データセットとして最大である。
論文 参考訳(メタデータ) (2024-08-05T04:53:17Z) - Enhancing Question Answering for Enterprise Knowledge Bases using Large Language Models [46.51659135636255]
EKRGは大規模言語モデル(LLM)に基づく新しい検索生成フレームワークである
知識検索者の学習に十分な文書検索ペアを生成するために,LLMを用いた命令チューニング手法を提案する。
我々は、学習過程の効率化を図るために、関連性に敏感な教師学生学習戦略を開発する。
論文 参考訳(メタデータ) (2024-04-10T10:38:17Z) - KnowledGPT: Enhancing Large Language Models with Retrieval and Storage
Access on Knowledge Bases [55.942342665806656]
KnowledGPTは、様々な知識ベースで大きな言語モデルをブリッジするための包括的なフレームワークである。
検索プロセスでは思考プロンプトプログラムを使用し,KBの検索言語をコード形式で生成する。
KnowledGPTは、個々のユーザ要求に合わせて、知識をパーソナライズされたKBに格納する機能を提供する。
論文 参考訳(メタデータ) (2023-08-17T13:07:00Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Incremental Knowledge Based Question Answering [52.041815783025186]
人間と同じように学習能力を段階的に拡張できるインクリメンタルKBQA学習フレームワークを提案します。
具体的には、破滅的な忘れ問題を克服するために、マージン希釈損失と協調選択方法からなる。
包括的な実験は、進化する知識ベースに取り組む際にその効果と効率を示す。
論文 参考訳(メタデータ) (2021-01-18T09:03:38Z) - Technical Question Answering across Tasks and Domains [47.80330046038137]
文書検索と読解作業のための調整可能な共同学習手法を提案する。
TechQAに関する我々の実験は、最先端の手法と比較して優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-19T18:39:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。