論文の概要: The Consistency-Acceptability Divergence of LLMs in Judicial Decision-Making: Task and Stakeholder Dimensions
- arxiv url: http://arxiv.org/abs/2507.08881v1
- Date: Thu, 10 Jul 2025 10:50:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.754478
- Title: The Consistency-Acceptability Divergence of LLMs in Judicial Decision-Making: Task and Stakeholder Dimensions
- Title(参考訳): 司法決定におけるLCMの一貫性と受容可能性の相違--タスクとステークホルダーの次元-
- Authors: Zhang MingDa, Xu Qing,
- Abstract要約: 大規模言語モデル(LLM)技術の司法システムへの統合は、世界中の法的慣行を根本的に変えつつある。
本研究は、技術的一貫性と社会的受容のギャップに言及した「一貫性-受容可能性格差」の概念を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of large language model (LLM) technology into judicial systems is fundamentally transforming legal practice worldwide. However, this global transformation has revealed an urgent paradox requiring immediate attention. This study introduces the concept of ``consistency-acceptability divergence'' for the first time, referring to the gap between technical consistency and social acceptance. While LLMs achieve high consistency at the technical level, this consistency demonstrates both positive and negative effects. Through comprehensive analysis of recent data on LLM judicial applications from 2023--2025, this study finds that addressing this challenge requires understanding both task and stakeholder dimensions. This study proposes the Dual-Track Deliberative Multi-Role LLM Judicial Governance Framework (DTDMR-LJGF), which enables intelligent task classification and meaningful interaction among diverse stakeholders. This framework offers both theoretical insights and practical guidance for building an LLM judicial ecosystem that balances technical efficiency with social legitimacy.
- Abstract(参考訳): 大規模言語モデル(LLM)技術の司法システムへの統合は、世界中の法的慣行を根本的に変えつつある。
しかし、このグローバルトランスフォーメーションは、直ちに注意を要する緊急パラドックスを明らかにしている。
本研究では, 技術的一貫性と社会的受容のギャップに言及し, 「一貫性-受容可能性の相違」という概念を初めて紹介する。
LLMは技術的レベルで高い整合性を達成するが、この整合性は正と負の両方の効果を示す。
2023-2025年のLLM司法出願に関する包括的分析を通じて、この問題に対処するには、課題とステークホルダーの双方の側面を理解する必要があることが判明した。
本研究では,多様な利害関係者間の知的タスク分類と有意義な相互作用を可能にするDual-Track Deliberative Multi-Role LLM Judicial Governance Framework (DTDMR-LJGF)を提案する。
この枠組みは、技術的効率と社会的正当性のバランスをとるLLM司法エコシステムを構築するための理論的洞察と実践的なガイダンスの両方を提供する。
関連論文リスト
- When Large Language Models Meet Law: Dual-Lens Taxonomy, Technical Advances, and Ethical Governance [7.743029842436036]
本稿では,Large Language Models (LLM) の総合的なレビューを行う。
トランスフォーマーベースのLLMは、文脈推論や生成的議論のような創発的な能力を示す。
本稿では,法的な役割を計算的にサブタスクにマッピングし,トゥールミン論証フレームワークを実装した新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-07-10T13:26:34Z) - Engineering the Law-Machine Learning Translation Problem: Developing Legally Aligned Models [0.0]
本稿では,機械学習モデル開発において,法的および機械学習技術分析を統合した5段階の学際フレームワークを提案する。
このフレームワークは、法的に整合した方法でMLモデルを設計し、法的に妥当なハイパフォーマンスモデルを特定することを容易にする。
論文 参考訳(メタデータ) (2025-04-23T13:41:17Z) - Scaling and Beyond: Advancing Spatial Reasoning in MLLMs Requires New Recipes [84.1059652774853]
MLLM(Multimodal Large Language Models)は、一般的な視覚言語タスクにおいて印象的な性能を示す。
近年の研究では、空間的推論能力の限界が明らかにされている。
この空間的推論の欠如は、MLLMが物理的世界と効果的に相互作用する能力を著しく制限する。
論文 参考訳(メタデータ) (2025-04-21T11:48:39Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Mapping Trustworthiness in Large Language Models: A Bibliometric Analysis Bridging Theory to Practice [11.251046343609078]
本研究は, 研究動向, 信頼性の定義, 実用技術を分析し, 理論的議論と実践的実践のギャップを埋めることを目的としている。
私たちは、透明性、説明可能性、信頼性を最も一般的な側面として、信頼と信頼の18の異なる定義を特定しました。
LLMの信頼性を高めるための20の戦略を特定し,精細調整・検索強化世代(RAG)が最も顕著であった。
論文 参考訳(メタデータ) (2025-02-27T14:02:33Z) - Augmenting Legal Decision Support Systems with LLM-based NLI for Analyzing Social Media Evidence [0.0]
本稿は,NLLP 2024におけるL-NLI(Lawal Natural Language Inference)の共有タスクのシステム記述とエラー解析について述べる。
このタスクは、レビューと苦情の関連性を示す、関係を関連づけられ、矛盾し、中立的なものに分類することを必要とした。
当システムでは, 勝訴として出現し, 他の項目を著しく上回り, 法的テキスト分析におけるアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-10-21T13:20:15Z) - MARS: Benchmarking the Metaphysical Reasoning Abilities of Language Models with a Multi-task Evaluation Dataset [50.36095192314595]
大きな言語モデル(LLM)は、一般化可能な推論能力を持つ意識的なエージェントとして機能する。
この能力は、イベントにおける無限の可能な変更をモデル化する複雑さのために、まだ探索されていない。
我々は,各ステップに対応する3つのタスクからなる最初のベンチマークMARSを紹介する。
論文 参考訳(メタデータ) (2024-06-04T08:35:04Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Inadequacies of Large Language Model Benchmarks in the Era of Generative Artificial Intelligence [5.147767778946168]
我々は、23の最先端のLarge Language Models (LLMs)ベンチマークを批判的に評価する。
私たちの研究は、バイアス、真の推論、適応性、実装の不整合、エンジニアリングの複雑さ、多様性、文化的およびイデオロギー規範の見落としなど、重大な制限を明らかにしました。
論文 参考訳(メタデータ) (2024-02-15T11:08:10Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Auditing large language models: a three-layered approach [0.0]
大規模言語モデル(LLM)は人工知能(AI)研究における大きな進歩を表している。
LLMはまた、重大な倫理的・社会的課題と結びついている。
これまでの研究は、監査を有望なガバナンスメカニズムとして取り上げてきた。
論文 参考訳(メタデータ) (2023-02-16T18:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。