論文の概要: Modeling Motivated Reasoning in Law: Evaluating Strategic Role Conditioning in LLM Summarization
- arxiv url: http://arxiv.org/abs/2509.00529v1
- Date: Sat, 30 Aug 2025 15:22:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.272415
- Title: Modeling Motivated Reasoning in Law: Evaluating Strategic Role Conditioning in LLM Summarization
- Title(参考訳): 法則における動機付け推論のモデル化:LLM要約における戦略的役割条件の評価
- Authors: Eunjung Cho, Alexander Hoyle, Yoan Hermstrüwer,
- Abstract要約: 大規模言語モデル(LLM)は、ユーザに適した要約を生成するために、ますます使われています。
これは動機付け推論に関する重要な疑問を提起する。
我々は,LLMが異なる法的役割を条件づけたプロンプトにどのように反応するかを検討する。
- 参考スコア(独自算出の注目度): 44.55119228567464
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) are increasingly used to generate user-tailored summaries, adapting outputs to specific stakeholders. In legal contexts, this raises important questions about motivated reasoning -- how models strategically frame information to align with a stakeholder's position within the legal system. Building on theories of legal realism and recent trends in legal practice, we investigate how LLMs respond to prompts conditioned on different legal roles (e.g., judges, prosecutors, attorneys) when summarizing judicial decisions. We introduce an evaluation framework grounded in legal fact and reasoning inclusion, also considering favorability towards stakeholders. Our results show that even when prompts include balancing instructions, models exhibit selective inclusion patterns that reflect role-consistent perspectives. These findings raise broader concerns about how similar alignment may emerge as LLMs begin to infer user roles from prior interactions or context, even without explicit role instructions. Our results underscore the need for role-aware evaluation of LLM summarization behavior in high-stakes legal settings.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特定の利害関係者にアウトプットを適用することで、ユーザに適した要約を生成するためにますます使われています。
法的文脈では、これは動機付けされた推論(動機付け)に関する重要な疑問を提起する。
法律リアリズムの理論と近年の法律実践の動向に基づいて, 司法決定を要約する際に, LLMが異なる法的役割(裁判官, 検察官, 弁護士など)を条件としたプロンプトにどのように反応するかを検討する。
我々は、利害関係者への優遇性も考慮しながら、法的事実と推論包摂性に基づく評価枠組みを導入する。
提案手法は,指示のバランスを考慮に入れた場合でも,役割に一貫性のある視点を反映した選択的な包摂パターンを示す。
これらの知見は、LLMが明示的な役割指示がなくても、事前のインタラクションやコンテキストからユーザロールを推測し始めるにつれて、どのようにアライメントが出現するかという、より広範な懸念を提起する。
以上の結果から,LLM要約行動のロールアウェアな評価の必要性が示唆された。
関連論文リスト
- GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - NomicLaw: Emergent Trust and Strategic Argumentation in LLMs During Collaborative Law-Making [6.56837855642886]
構造化マルチエージェントシミュレーションであるNomicLawを導入する。
投票パターンを通じて信頼と互恵性を定量的に測定し、エージェントが提案を正当化するために戦略的言語をどのように利用するかを質的に評価する。
我々の結果は,10のオープンソースLCMの潜伏する社会的推論と説得能力を強調し,将来のAIシステムの設計に関する洞察を提供する。
論文 参考訳(メタデータ) (2025-08-07T12:49:44Z) - AUTOLAW: Enhancing Legal Compliance in Large Language Models via Case Law Generation and Jury-Inspired Deliberation [5.732271982985626]
AutoLawは、ドメイン固有の大規模言語モデル(LLM)のための新しい違反検出フレームワークである。
LLMの法的コンプライアンスを強化するために、敵対的なデータ生成と陪審に触発された審議プロセスを組み合わせる。
本研究は, 法的不一致を適応的に調査し, 信頼性の高い文脈対応の判断を下すフレームワークの能力を強調した。
論文 参考訳(メタデータ) (2025-05-20T07:09:13Z) - An Explicit Syllogistic Legal Reasoning Framework for Large Language Models [5.501226256903341]
大規模言語モデル(LLM)は法的問題に答えることができるが、しばしば明示的なシロジック推論に苦慮する。
我々は,LLMが明示的なシロジックな法的推論を行えるように設計された新しいフレームワークであるSyLeRを紹介した。
SyLeRは、関係する法規や前例を合成するために、木構造的階層的検索機構を使用している。
論文 参考訳(メタデータ) (2025-04-05T03:34:51Z) - A Law Reasoning Benchmark for LLM with Tree-Organized Structures including Factum Probandum, Evidence and Experiences [76.73731245899454]
本稿では,階層的なファクトラム,証拠,暗黙的な経験に富む透明な法理推論スキーマを提案する。
このスキーマにインスパイアされた課題は、テキストのケース記述を取り込み、最終決定を正当化する階層構造を出力する。
このベンチマークは、Intelligent Courtにおける透明で説明可能なAI支援法推論の道を開く」。
論文 参考訳(メタデータ) (2025-03-02T10:26:54Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - Enhancing Pre-Trained Language Models with Sentence Position Embeddings
for Rhetorical Roles Recognition in Legal Opinions [0.16385815610837165]
法的意見の規模は増え続けており、法的意見の修辞的役割を正確に予測できるモデルを開発することはますます困難になっている。
本稿では,文の位置情報に関する知識によって強化された事前学習言語モデル(PLM)を用いて,修辞的役割を自動的に予測する新しいモデルアーキテクチャを提案する。
LegalEval@SemEval2023コンペティションの注釈付きコーパスに基づいて、我々のアプローチではパラメータが少なく、計算コストが低下することを示した。
論文 参考訳(メタデータ) (2023-10-08T20:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。