論文の概要: Legal Minds, Algorithmic Decisions: How LLMs Apply Constitutional Principles in Complex Scenarios
- arxiv url: http://arxiv.org/abs/2407.19760v2
- Date: Fri, 9 Aug 2024 10:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 17:59:25.734834
- Title: Legal Minds, Algorithmic Decisions: How LLMs Apply Constitutional Principles in Complex Scenarios
- Title(参考訳): 法的な心とアルゴリズム的決定 - 複雑なシナリオにおけるLLMの憲法的原則の適用方法
- Authors: Camilla Bignotti, Carolina Camassa,
- Abstract要約: GPT-4は一貫して、憲法の進歩的な解釈と密接に一致している。
本実験は, GPT-4の進行的法的解釈を優先する傾向を明らかにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we conduct an empirical analysis of how large language models (LLMs), specifically GPT-4, interpret constitutional principles in complex decision-making scenarios. We examine rulings from the Italian Constitutional Court on bioethics issues that involve trade-offs between competing values and compare model-generated legal arguments on these issues to those presented by the State, the Court, and the applicants. Our results indicate that GPT-4 consistently aligns more closely with progressive interpretations of the Constitution, often overlooking competing values and mirroring the applicants' views rather than the more conservative perspectives of the State or the Court's moderate positions. Our experiments reveal a distinct tendency of GPT-4 to favor progressive legal interpretations, underscoring the influence of underlying data biases. We thus underscore the importance of testing alignment in real-world scenarios and considering the implications of deploying LLMs in decision-making processes.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM),特にGPT-4が,複雑な意思決定シナリオにおける構成原理をどう解釈するかを実証的に分析する。
イタリア憲法裁判所から、競合する価値間のトレードオフを含む生物倫理問題に関する判決を審査し、これらの問題に関するモデル生成法的議論を、国、裁判所、及び出願人によって提示されたものと比較する。
我々の結果は、GPT-4は憲法の進歩的な解釈と一貫して一致しており、しばしば競合する価値を見落とし、国家の保守的な視点や裁判所の穏健な立場よりも、応募者の見解を反映していることを示している。
本実験により, GPT-4は, 先進的な法的解釈を優先する傾向を示し, 基礎となるデータバイアスの影響を浮き彫りにしている。
そこで本研究では,実世界のシナリオにおけるアライメントテストの重要性と,意思決定プロセスにおけるLCMの展開の重要性を考察する。
関連論文リスト
- Legal Evalutions and Challenges of Large Language Models [42.51294752406578]
我々は,OPENAI o1モデルを事例研究として,法律規定の適用における大規模モデルの性能評価に利用した。
我々は、オープンソース、クローズドソース、および法律ドメインのために特別に訓練された法律固有のモデルを含む、最先端のLLMを比較します。
論文 参考訳(メタデータ) (2024-11-15T12:23:12Z) - Bridging Law and Data: Augmenting Reasoning via a Semi-Structured Dataset with IRAC methodology [22.740895683854568]
本稿では,法シナリオ分析のためのベンチマークであるLEGALSEMIを紹介する。
LEGALSEMIは54の法的シナリオで構成されており、それぞれが包括的なIRAC(Issue, Rule, Application, Conclusion)フレームワークに基づいて、法の専門家によって厳格に注釈付けされている。
IRAC分析におけるLEGALSEMIの有用性を評価するための一連の実験を行った。
論文 参考訳(メタデータ) (2024-06-19T04:59:09Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - MUSER: A Multi-View Similar Case Retrieval Dataset [65.36779942237357]
類似事例検索(SCR)は、司法公正の促進に重要な役割を果たす代表的法的AIアプリケーションである。
既存のSCRデータセットは、ケース間の類似性を判断する際にのみ、事実記述セクションにフォーカスする。
本稿では,多視点類似度測定に基づく類似事例検索データセットMと,文レベル法定要素アノテーションを用いた包括的法定要素を提案する。
論文 参考訳(メタデータ) (2023-10-24T08:17:11Z) - Explaining Legal Concepts with Augmented Large Language Models (GPT-4) [0.8924669503280334]
我々は,法律における用語の事実的正確で明確で関連性の高い説明を生成する上で,GPT-4の性能を評価する。
GPT-4の直接適用により, 表面の非常に高品質な説明が得られることがわかった。
その結果,増悪によって品質が向上し,幻覚の問題は解消されることがわかった。
論文 参考訳(メタデータ) (2023-06-15T21:58:18Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Prototype-Based Interpretability for Legal Citation Prediction [16.660004925391842]
我々は、前例と立法規定の両方に関して、弁護士の思考過程と平行してタスクを設計する。
最初の実験結果から,法の専門家のフィードバックを得て,対象の引用予測を洗練する。
我々は,弁護士が使用する決定パラメータに固執しながら,高い性能を達成し,解釈可能性を高めるためのプロトタイプアーキテクチャを導入する。
論文 参考訳(メタデータ) (2023-05-25T21:40:58Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z) - A Survey on Legal Judgment Prediction: Datasets, Metrics, Models and
Challenges [73.34944216896837]
法定判断予測(LJP)は,事実記述に基づく判断結果の自動予測に自然言語処理(NLP)技術を適用している。
6言語で31のLJPデータセットを分析し、その構築過程を示し、LJPの分類方法を定義する。
異なる訴訟の8つの代表的データセットに対する最先端の結果を示し、オープンな課題について議論する。
論文 参考訳(メタデータ) (2022-04-11T04:06:28Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。