論文の概要: LLaMandement: Large Language Models for Summarization of French
Legislative Proposals
- arxiv url: http://arxiv.org/abs/2401.16182v1
- Date: Mon, 29 Jan 2024 14:23:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 14:42:42.668932
- Title: LLaMandement: Large Language Models for Summarization of French
Legislative Proposals
- Title(参考訳): LLaMandement:フランスの立法提案の要約のための大規模言語モデル
- Authors: Joseph Gesnouin, Yannis Tannier, Christophe Gomes Da Silva, Hatim
Tapory, Camille Brier, Hugo Simon, Raphael Rozenberg, Hermann Woehrel, Mehdi
El Yakaabi, Thomas Binder, Guillaume Marie, Emilie Caron, Mathile Nogueira,
Thomas Fontas, Laure Puydebois, Marie Theophile, Stephane Morandi, Mael
Petit, David Creissac, Pauline Ennouchy, Elise Valetoux, Celine Visade,
Severine Balloux, Emmanuel Cortes, Pierre-Etienne Devineau, Ulrich Tan,
Esther Mac Namara, Su Yang
- Abstract要約: 本報告では,フランス政府によって微調整された最先端の大規模言語モデルであるLLaMandementを紹介する。
立法案の中立的な要約を生成することにより、議会セッションの処理効率と有効性を高めることを目的としている。
- 参考スコア(独自算出の注目度): 2.2390322165810606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This report introduces LLaMandement, a state-of-the-art Large Language Model,
fine-tuned by the French government and designed to enhance the efficiency and
efficacy of processing parliamentary sessions (including the production of
bench memoranda and documents required for interministerial meetings) by
generating neutral summaries of legislative proposals. Addressing the
administrative challenges of manually processing a growing volume of
legislative amendments, LLaMandement stands as a significant legal
technological milestone, providing a solution that exceeds the scalability of
traditional human efforts while matching the robustness of a specialized legal
drafter. We release all our fine-tuned models and training data to the
community.
- Abstract(参考訳): 本報告は、フランス政府が精巧に調整した最先端の大規模言語モデルであるllamandementを紹介し、立法案の中立的な要約を作成し、議会セッションの処理効率と有効性を高めることを目的としている。
立法の修正を手作業で処理するという管理上の課題に対処し、ラムンダメントは重要な法的技術的マイルストーンであり、特殊な法律草案の頑健さに合致しながら、伝統的な人間の努力のスケーラビリティを超えるソリューションを提供する。
すべての微調整されたモデルとトレーニングデータをコミュニティにリリースします。
関連論文リスト
- Optimizing Numerical Estimation and Operational Efficiency in the Legal Domain through Large Language Models [13.067312163677933]
本稿では,Large Language Modelsと特殊設計のプロンプトを統合して,法的な人工知能(LegalAI)アプリケーションにおける精度要件に対処する手法を提案する。
本手法を検証するために,精度指向の LegalAI タスクに適したキュレートデータセットを提案する。
論文 参考訳(メタデータ) (2024-07-26T18:46:39Z) - InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - Legal Documents Drafting with Fine-Tuned Pre-Trained Large Language Model [1.3812010983144798]
本稿では,中国語の分節化を伴わずに多数の注釈のない法律文書を活用でき,大規模言語モデルを微調整できることを示す。
また、法的文書草案作成作業も達成でき、同時に情報プライバシーの保護と情報セキュリティ問題の改善も達成できる。
論文 参考訳(メタデータ) (2024-06-06T16:00:20Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - No Train but Gain: Language Arithmetic for training-free Language Adapters enhancement [59.37775534633868]
本稿では,学習不要な後処理が可能な言語演算法を提案する。
提案手法の有効性を,MAD-Xに基づく言語間スキームの3つの下流課題に適用した。
論文 参考訳(メタデータ) (2024-04-24T08:52:40Z) - Leveraging Large Language Models for Relevance Judgments in Legal Case Retrieval [18.058942674792604]
本稿では,訴訟の関連判断に適した新規な数ショットワークフローを提案する。
LLMと人的専門家の関連判断を比較することで,信頼性の高い関連判断が得られたことを実証的に示す。
論文 参考訳(メタデータ) (2024-03-27T09:46:56Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Leveraging Large Language Models for Topic Classification in the Domain
of Public Affairs [65.9077733300329]
大規模言語モデル (LLM) は公務員文書の分析を大幅に強化する可能性を秘めている。
LLMは、公共の分野など、ドメイン固有のドキュメントを処理するのに非常に役立ちます。
論文 参考訳(メタデータ) (2023-06-05T13:35:01Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z) - Predicting Legal Proceedings Status: Approaches Based on Sequential Text
Data [0.0]
本稿では,ブラジルの法的手続を3段階に分類する予測モデルを開発する。
自然言語処理(NLP)と機械学習技術を組み合わせて問題解決を行った。
我々のアプローチは最大精度.93、最高スコアは.89(マクロ)と.93(重み)を達成した。
論文 参考訳(メタデータ) (2020-03-13T19:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。