論文の概要: ELLA: Empowering LLMs for Interpretable, Accurate and Informative Legal Advice
- arxiv url: http://arxiv.org/abs/2408.07137v1
- Date: Tue, 13 Aug 2024 18:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 14:55:43.280981
- Title: ELLA: Empowering LLMs for Interpretable, Accurate and Informative Legal Advice
- Title(参考訳): ELLA: 解釈,正確,インフォームな法的アドバイスにLLMを活用
- Authors: Yutong Hu, Kangcheng Luo, Yansong Feng,
- Abstract要約: ELLA は bf 法 bf 法 bf 法 bf 法 法 bf 法 法 bf 法 bf 法 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法 bf 法
- 参考スコア(独自算出の注目度): 26.743016561520506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite remarkable performance in legal consultation exhibited by legal Large Language Models(LLMs) combined with legal article retrieval components, there are still cases when the advice given is incorrect or baseless. To alleviate these problems, we propose {\bf ELLA}, a tool for {\bf E}mpowering {\bf L}LMs for interpretable, accurate, and informative {\bf L}egal {\bf A}dvice. ELLA visually presents the correlation between legal articles and LLM's response by calculating their similarities, providing users with an intuitive legal basis for the responses. Besides, based on the users' queries, ELLA retrieves relevant legal articles and displays them to users. Users can interactively select legal articles for LLM to generate more accurate responses. ELLA also retrieves relevant legal cases for user reference. Our user study shows that presenting the legal basis for the response helps users understand better. The accuracy of LLM's responses also improves when users intervene in selecting legal articles for LLM. Providing relevant legal cases also aids individuals in obtaining comprehensive information.
- Abstract(参考訳): 法的な大規模言語モデル(LLMs)と法的な記事検索コンポーネントが組み合わさった法的なコンサルテーションにおける顕著なパフォーマンスにもかかわらず、アドバイスが正しくない場合や、根拠のない場合もまだある。
これらの問題を緩和するために、我々は {\bf L}LMs を解釈し、正確かつ情報的な {\bf L}egal {\bf A}dvice のためのツールである {\bf ELLA} を提案する。
ELLA は,法的項目と LLM の応答との相関関係を,類似性を計算することによって視覚的に提示し,ユーザに対して直感的な応答の法的基盤を提供する。
さらに、ユーザのクエリに基づいて、ELAは関連する法的項目を検索し、ユーザに表示する。
ユーザは LLM の法的項目をインタラクティブに選択して,より正確なレスポンスを生成できる。
ELLAはまた、ユーザ参照に関する関連する訴訟を検索する。
ユーザの調査から,回答に対する法的根拠を示すことで,ユーザの理解を深めることができた。
LLMの応答の精度は、ユーザがLSMの法的項目を選択する際にも改善される。
関連する訴訟を提供することは、個人が包括的な情報を得るのに役立つ。
関連論文リスト
- LawLuo: A Chinese Law Firm Co-run by LLM Agents [1.9857357818932064]
LLM(Large Language Models)は、法的背景を持たないユーザに対して法的コンサルティングサービスを提供する。
既存の中国の法的LLMは、1つのモデル-ユーザ対話にインタラクションを制限している。
本稿では,LawLuoと呼ばれる複数のLLMエージェントの協調機能を活用する,新たな法的対話フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-23T07:40:41Z) - I Need Help! Evaluating LLM's Ability to Ask for Users' Support: A Case Study on Text-to-SQL Generation [60.00337758147594]
本研究では,LLMのユーザサポートを積極的に行う能力について検討する。
性能改善とユーザ負担のトレードオフを評価する指標を提案する。
我々の実験は、外部からのフィードバックがなければ、多くのLCMがユーザサポートの必要性を認識するのに苦労していることを示している。
論文 参考訳(メタデータ) (2024-07-20T06:12:29Z) - InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - Knowledge-Infused Legal Wisdom: Navigating LLM Consultation through the Lens of Diagnostics and Positive-Unlabeled Reinforcement Learning [19.55121050697779]
本稿では、適応型弁護士のような診断質問を利用して、追加の事例情報を収集する診断法大言語モデル(D3LM)を提案する。
D3LMは、革新的なグラフベースのPositive-Unlabeled Reinforcement Learning (PURL)アルゴリズムを導入し、批判的な質問を生成する。
また,米国事例法データベースに基づく新たな英語CVGデータセットも導入した。
論文 参考訳(メタデータ) (2024-06-05T19:47:35Z) - (A)I Am Not a Lawyer, But...: Engaging Legal Experts towards Responsible LLM Policies for Legal Advice [8.48013392781081]
大規模言語モデル(LLM)は、法的なアドバイスを含む幅広い専門分野のアドバイスをユーザに提供しやすくなっている。
ケースベース推論にインスパイアされた手法を用いて,20名の法律専門家とワークショップを行った。
以上より,無許可の法律実務,機密性,不正確な助言に対する責任など,新たな法的考慮事項が明らかになった。
論文 参考訳(メタデータ) (2024-02-02T19:35:34Z) - LLatrieval: LLM-Verified Retrieval for Verifiable Generation [67.93134176912477]
検証可能な生成は、大きな言語モデル(LLM)がドキュメントをサポートするテキストを生成することを目的としている。
本稿では,LLatrieval (Large Language Model Verified Retrieval)を提案する。
実験により、LLatrievalは幅広いベースラインを著しく上回り、最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2023-11-14T01:38:02Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - LAiW: A Chinese Legal Large Language Models Benchmark [17.66376880475554]
一般および法的ドメイン LLM は LegalAI の様々なタスクにおいて高いパフォーマンスを示している。
われわれは、法的な実践の論理に基づいて、中国の法的LLMベンチマークLAiWを最初に構築しました。
論文 参考訳(メタデータ) (2023-10-09T11:19:55Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。