論文の概要: Blind Judgement: Agent-Based Supreme Court Modelling With GPT
- arxiv url: http://arxiv.org/abs/2301.05327v1
- Date: Thu, 12 Jan 2023 23:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 14:24:12.734039
- Title: Blind Judgement: Agent-Based Supreme Court Modelling With GPT
- Title(参考訳): ブラインド判決:GPTとエージェントベースの最高裁モデリング
- Authors: Sil Hamilton
- Abstract要約: 我々は、2015年現在、各最高裁判所の権限のある意見で9つの異なるモデルを訓練し、96の現実世界のケースで結果のシステムをテストする。
我々のシステムは、現実の最高裁判所の判断を、よりランダムな精度で予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel Transformer-based multi-agent system for simulating the
judicial rulings of the 2010-2016 Supreme Court of the United States. We train
nine separate models with the respective authored opinions of each supreme
justice active ca. 2015 and test the resulting system on 96 real-world cases.
We find our system predicts the decisions of the real-world Supreme Court with
better-than-random accuracy. We further find a correlation between model
accuracy with respect to individual justices and their alignment between legal
conservatism & liberalism. Our methods and results hold significance for
researchers interested in using language models to simulate politically-charged
discourse between multiple agents.
- Abstract(参考訳): 2010-2016年アメリカ合衆国最高裁判所の判決をシミュレートするためのトランスフォーマーベースのマルチエージェントシステムを提案する。
我々は、各最高裁判所活動員のそれぞれの権限のある意見で、9つの異なるモデルを訓練する。
2015年、96件の現実世界のケースでシステムをテスト。
我々のシステムは、現実の最高裁判所の決定を、よりランダムな精度で予測する。
さらに,個々の正義に対するモデルの正確さと,法的保守主義と自由主義の連携との関係を見出した。
提案手法は,複数のエージェント間の政治的に帯電した会話をシミュレートするために言語モデルを利用する研究者にとって重要である。
関連論文リスト
- ElectionSim: Massive Population Election Simulation Powered by Large Language Model Driven Agents [70.17229548653852]
我々は,大規模言語モデルに基づく革新的な選挙シミュレーションフレームワークであるElectronSimを紹介する。
ソーシャルメディアプラットフォームからサンプリングした100万レベルの投票者プールを提示し、正確な個人シミュレーションを支援する。
PPEは、米国大統領選挙シナリオ下での我々の枠組みの性能を評価するための、世論調査に基づく大統領選挙ベンチマークである。
論文 参考訳(メタデータ) (2024-10-28T05:25:50Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Judging the Judges: Evaluating Alignment and Vulnerabilities in LLMs-as-Judges [6.609843448260634]
LLM-as-a-judgeパラダイムは,大規模言語モデルを評価するアプローチとして急速に普及している。
本稿では,人間間の合意が高いクリーンなシナリオに焦点を当てる。
我々は、複雑性や長さを早めるための感度や、寛大さへの傾向など、審査モデルの脆弱性を識別する。
論文 参考訳(メタデータ) (2024-06-18T13:49:54Z) - Towards Explainability in Legal Outcome Prediction Models [64.00172507827499]
我々は、前例が法的NLPモデルの説明可能性を促進する自然な方法であると主張している。
法的な先例の分類法を開発することで、人間の判断と神経モデルを比較することができる。
モデルが合理的に結果を予測することを学習する一方で、前例の使用は人間の判断とは違い、ということがわかりました。
論文 参考訳(メタデータ) (2024-03-25T15:15:41Z) - Aligning Large Language Models by On-Policy Self-Judgment [49.31895979525054]
大規模言語モデルと人間の嗜好を整合させる既存のアプローチは、オンライン学習のために別々の報酬モデル(RM)を必要とするトレードオフに直面しています。
本稿では,オンライン学習を行う新たなアライメントフレームワークSELF-JUDGEを提案する。
また, さらなる評価を行なわずに, サンプリング自体がさらなる性能向上に寄与することを示した。
論文 参考訳(メタデータ) (2024-02-17T11:25:26Z) - JudgeLM: Fine-tuned Large Language Models are Scalable Judges [54.007823006976516]
大規模言語モデル (LLM) を拡張性判断器 (JudgeLM) として微調整し, LLM を効率よく, かつ効率的に評価する手法を提案する。
まず, タスクシード, LLM 生成回答, GPT-4 生成判断を含む包括的, 大規模, 高品質なデータセットを提案する。
次に、微調整LDMにおける重要なバイアスを判断として分析し、位置バイアス、知識バイアス、フォーマットバイアスとみなす。
論文 参考訳(メタデータ) (2023-10-26T17:48:58Z) - Legal and Political Stance Detection of SCOTUS Language [9.906317924458456]
我々は,自動姿勢検出法を用いて,米国最高裁判所の公用文書を分析した。
SCOTUS正義の2つの異なるイデオロギー指標を口頭弁論書を用いて計算する。
世論に反応する判事は口頭弁論中にイデオロギーを表現する傾向にある。
論文 参考訳(メタデータ) (2022-11-21T18:45:57Z) - Accuracy, Fairness, and Interpretability of Machine Learning Criminal
Recidivism Models [4.297070083645049]
様々な機械学習に基づく犯罪再犯モデルが、アメリカ合衆国ジョージア州の現実世界の仮釈放決定データセットに基づいて作成されている。
正確さ、公平さ、本質的に解釈可能であることとの間には、顕著な違いとトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2022-09-14T17:53:24Z) - JUSTICE: A Benchmark Dataset for Supreme Court's Judgment Prediction [0.0]
我々は、自然言語処理(NLP)研究やその他のデータ駆動アプリケーションで容易に利用できるように、SCOTUS裁判所の高品質なデータセットを作成することを目指している。
先進的なNLPアルゴリズムを用いて以前の訴訟を分析することにより、訓練されたモデルは裁判所の判断を予測し、分類することができる。
論文 参考訳(メタデータ) (2021-12-06T23:19:08Z) - ILDC for CJPE: Indian Legal Documents Corpus for Court Judgment
Prediction and Explanation [3.285073688021526]
CJPE(Court Judgment Prediction and Explanation)の課題を提案する。
CJPEは、ケースの説明可能な結果を予測するために、自動化システムを必要とします。
我々の最良の予測モデルは、人間の法律専門家の精度が78%であるのに対して、94%である。
論文 参考訳(メタデータ) (2021-05-28T03:07:32Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。