論文の概要: LawFlow : Collecting and Simulating Lawyers' Thought Processes
- arxiv url: http://arxiv.org/abs/2504.18942v1
- Date: Sat, 26 Apr 2025 15:01:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.056424
- Title: LawFlow : Collecting and Simulating Lawyers' Thought Processes
- Title(参考訳): LawFlow : 弁護士の思考過程の収集とシミュレーション
- Authors: Debarati Das, Khanh Chi Le, Ritik Sachin Parkar, Karin De Langis, Brendan Madson, Chad M. Berryman, Robin M. Willis, Daniel H. Moses, Brett McDonnell, Daniel Schwarcz, Dongyeop Kang,
- Abstract要約: LawFlowは、完全なエンドツーエンドの法的なブレインストーミングシナリオのデータセットである。
人間はモジュラーで適応的である傾向があり、LSMはよりシーケンシャルで、徹底的で、下流への影響に敏感ではない。
我々は、AI支援と人間の目標である明快さ、完全性、創造性、効率を一致させる一連の設計提案を提案する。
- 参考スコア(独自算出の注目度): 11.695057408974986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Legal practitioners, particularly those early in their careers, face complex, high-stakes tasks that require adaptive, context-sensitive reasoning. While AI holds promise in supporting legal work, current datasets and models are narrowly focused on isolated subtasks and fail to capture the end-to-end decision-making required in real-world practice. To address this gap, we introduce LawFlow, a dataset of complete end-to-end legal workflows collected from trained law students, grounded in real-world business entity formation scenarios. Unlike prior datasets focused on input-output pairs or linear chains of thought, LawFlow captures dynamic, modular, and iterative reasoning processes that reflect the ambiguity, revision, and client-adaptive strategies of legal practice. Using LawFlow, we compare human and LLM-generated workflows, revealing systematic differences in structure, reasoning flexibility, and plan execution. Human workflows tend to be modular and adaptive, while LLM workflows are more sequential, exhaustive, and less sensitive to downstream implications. Our findings also suggest that legal professionals prefer AI to carry out supportive roles, such as brainstorming, identifying blind spots, and surfacing alternatives, rather than executing complex workflows end-to-end. Building on these findings, we propose a set of design suggestions, rooted in empirical observations, that align AI assistance with human goals of clarity, completeness, creativity, and efficiency, through hybrid planning, adaptive execution, and decision-point support. Our results highlight both the current limitations of LLMs in supporting complex legal workflows and opportunities for developing more collaborative, reasoning-aware legal AI systems. All data and code are available on our project page (https://minnesotanlp.github.io/LawFlow-website/).
- Abstract(参考訳): 法律実務者、特にキャリアの初期には、適応的で文脈に敏感な推論を必要とする、複雑で高度なタスクに直面します。
AIは法的作業をサポートすることを約束しているが、現在のデータセットとモデルは孤立したサブタスクに集中しており、現実世界の実践に必要なエンドツーエンドの意思決定を捉えていない。
このギャップに対処するために、実世界のビジネスエンティティ形成シナリオに基づいて、訓練された法学生から収集された完全なエンドツーエンドの法的ワークフローのデータセットであるLawFlowを紹介します。
インプット・アウトプット・ペアやリニア・チェーンの思考に焦点を当てた以前のデータセットとは異なり、LawFlowは、法的実践の曖昧さ、リビジョン、クライアント適応戦略を反映した動的でモジュール的で反復的な推論プロセスをキャプチャする。
LawFlowを使って、人間とLLM生成ワークフローを比較し、構造、推論の柔軟性、計画実行の体系的な違いを明らかにします。
ヒューマンワークフローはモジュール化され適応的になりがちだが、LLMワークフローはよりシーケンシャルで、徹底的で、下流の影響に敏感ではない。
我々の調査結果は、法律専門家が複雑なワークフローをエンドツーエンドで実行するよりも、ブレインストーミング、盲点の特定、代替案を提示するといった、支援的な役割をAIに委ねることを好むことも示唆している。
これらの知見に基づいて、我々は、ハイブリッド計画、適応実行、意思決定支援を通じて、AI支援を人間の目標である明快さ、完全性、創造性、効率と整合する経験的観察に根ざした一連の設計提案を提案する。
我々の結果は、複雑な法的ワークフローをサポートするLLMの現在の限界と、より協調的で推論に敏感な法的なAIシステムを開発する機会の両方を強調します。
すべてのデータとコードはプロジェクトページ(https://minnesotanlp.github.io/LawFlow-website/)で利用可能です。
関連論文リスト
- SynLexLM: Scaling Legal LLMs with Synthetic Data and Curriculum Learning [0.0]
法的なLLMを効率的に事前訓練するための新しいアプローチであるSynLexLMを紹介する。
本手法では, 簡単な法的テキストから複雑なクエリへ, 合成データ拡張と組み合わせて, カリキュラム学習を採用する。
予備的な作業は、法的推論を反映した合成QAペアの生成である。
論文 参考訳(メタデータ) (2025-04-26T01:42:22Z) - Engineering the Law-Machine Learning Translation Problem: Developing Legally Aligned Models [0.0]
本稿では,機械学習モデル開発において,法的および機械学習技術分析を統合した5段階の学際フレームワークを提案する。
このフレームワークは、法的に整合した方法でMLモデルを設計し、法的に妥当なハイパフォーマンスモデルを特定することを容易にする。
論文 参考訳(メタデータ) (2025-04-23T13:41:17Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Flow: Modularized Agentic Workflow Automation [53.073598156915615]
大規模言語モデル(LLM)を利用したマルチエージェントフレームワークは、自動計画とタスク実行において大きな成功を収めている。
しかし, 実行中のエージェントの効果的な調整は十分に研究されていない。
本稿では,エージェントによる継続的なワークフロー改善を可能にするアクティビティ・オン・頂点(AOV)グラフを定義する。
提案するマルチエージェントフレームワークは,サブタスクの効率的な同時実行,効果的なゴール達成,エラー耐性の向上を実現している。
論文 参考訳(メタデータ) (2025-01-14T04:35:37Z) - ALKAFI-LLAMA3: Fine-Tuning LLMs for Precise Legal Understanding in Palestine [0.0]
本研究は,パレスチナの法域に大規模言語モデルを適用することの課題に対処する。
政治的不安定、断片化された法的なフレームワーク、限られたAIリソースは、効果的な機械学習アプリケーションを妨げる。
Llama-3.2-1B-Instructの量子化バージョンに基づく微調整モデルを提案する。
論文 参考訳(メタデータ) (2024-12-19T11:55:51Z) - Game-theoretic LLM: Agent Workflow for Negotiation Games [30.83905391503607]
本稿では,大規模言語モデル(LLM)の戦略的意思決定文脈における合理性について検討する。
LLMの推論と意思決定を導く複数のゲーム理論を設計する。
この発見は、より堅牢で戦略的に健全なAIエージェントの開発に影響を及ぼす。
論文 参考訳(メタデータ) (2024-11-08T22:02:22Z) - Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorfBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorfEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z) - Optimizing Numerical Estimation and Operational Efficiency in the Legal Domain through Large Language Models [13.067312163677933]
本稿では,Large Language Modelsと特殊設計のプロンプトを統合して,法的な人工知能(LegalAI)アプリケーションにおける精度要件に対処する手法を提案する。
本手法を検証するために,精度指向の LegalAI タスクに適したキュレートデータセットを提案する。
論文 参考訳(メタデータ) (2024-07-26T18:46:39Z) - FlowBench: Revisiting and Benchmarking Workflow-Guided Planning for LLM-based Agents [64.1759086221016]
ワークフロー誘導計画の最初のベンチマークであるFlowBenchを紹介します。
FlowBenchは6つのドメインから51のシナリオをカバーしている。
以上の結果から,現在のLLMエージェントは良好な計画を立てるためにかなりの改善が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T06:13:00Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - A Workflow for Offline Model-Free Robotic Reinforcement Learning [117.07743713715291]
オフライン強化学習(RL)は、オンラインインタラクションを伴わずに、事前の経験のみを活用することによって、学習制御ポリシを可能にする。
本研究では,教師付き学習問題に対して,比較的よく理解されたオフラインRLと類似した実践的ワークフローを開発する。
オンラインチューニングを伴わない効果的なポリシー作成におけるこのワークフローの有効性を実証する。
論文 参考訳(メタデータ) (2021-09-22T16:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。