論文の概要: Logical Judges Challenge Human Judges on the Strange Case of
B.C.-Valjean
- arxiv url: http://arxiv.org/abs/2010.05694v1
- Date: Tue, 22 Sep 2020 00:51:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 23:01:11.701344
- Title: Logical Judges Challenge Human Judges on the Strange Case of
B.C.-Valjean
- Title(参考訳): B.C.-Valjean事件で裁判員に挑む論理的判断
- Authors: Viviana Mascardi (University of Genova, DIBRIS, Italy), Domenico
Pellegrini (Ministry of Justice, Tribunale di Genova, Italy)
- Abstract要約: 70人以上の判事が、武装強盗事件を理由とするPrologの論理的裁判官のデモに追随した。
本稿では,2015年に人間裁判官が解決した実例である論理的審査員が提示した事例と,参加者から収集した実例に対するフィードバックについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On May 12th, 2020, during the course entitled Artificial Intelligence and
Jurisdiction Practice organized by the Italian School of Magistracy, more than
70 magistrates followed our demonstration of a Prolog logical judge reasoning
on an armed robbery case. Although the implemented logical judge is just an
exercise of knowledge representation and simple deductive reasoning, a
practical demonstration of an automated reasoning tool to such a large audience
of potential end-users represents a first and unique attempt in Italy and, to
the best of our knowledge, in the international panorama. In this paper we
present the case addressed by the logical judge - a real case already addressed
by a human judge in 2015 - and the feedback on the demonstration collected from
the attendees.
- Abstract(参考訳): 2020年5月12日、イタリアのマギストクラシー学校が主催する人工知能と司法実務のコースにおいて、70人以上の判事が、武装強盗事件を推論するプロログの論理的判断のデモを行った。
実装された論理判断は知識表現と単純な推論の演習にすぎないが、そのような潜在的なエンドユーザの多くの聴衆に対する自動推論ツールの実践的なデモンストレーションは、イタリアにおける最初のユニークな試みであり、我々の知識の最良のところは国際パノラマにおけるものである。
本稿では,2015年に人間裁判官が解決した実例である論理的審査員が提示した事例と,参加者から収集した実例に対するフィードバックについて述べる。
関連論文リスト
- On scalable oversight with weak LLMs judging strong LLMs [67.8628575615614]
我々は、2つのAIが1人の裁判官を納得させようとする議論、すなわち1人のAIが1人の裁判官を説得し、質問をする。
大規模言語モデル(LLM)をAIエージェントと人間の判断のためのスタンドインの両方として使用し、判断モデルがエージェントモデルよりも弱いと判断する。
論文 参考訳(メタデータ) (2024-07-05T16:29:15Z) - Towards Explainability in Legal Outcome Prediction Models [64.00172507827499]
我々は、前例が法的NLPモデルの説明可能性を促進する自然な方法であると主張している。
法的な先例の分類法を開発することで、人間の判断と神経モデルを比較することができる。
モデルが合理的に結果を予測することを学習する一方で、前例の使用は人間の判断とは違い、ということがわかりました。
論文 参考訳(メタデータ) (2024-03-25T15:15:41Z) - The Ethics of Automating Legal Actors [58.81546227716182]
我々は、裁判官の役割の自動化は、特に一般的な法体系において、難しい倫理的課題を提起すると主張している。
我々の主張は、単に法律を適用するのではなく、法律を積極的に形成する際の裁判官の社会的役割から従う。
モデルが人間レベルの能力を達成できたとしても、法的プロセスの自動化に固有の倫理的懸念は残るだろう。
論文 参考訳(メタデータ) (2023-12-01T13:48:46Z) - Legal Syllogism Prompting: Teaching Large Language Models for Legal
Judgment Prediction [0.6091702876917281]
LoT(Lawal syllogism prompting)は、法的な判断の予測のために大きな言語モデルを教える単純なプロンプト法である。
LoTは法的なシロジズムにおいて、主要な前提は法であり、小さな前提は事実であり、結論は判断である、とのみ教えている。
以上の結果から, LoT を用いた LLM は,思考のベースラインや連鎖よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-17T08:38:46Z) - Do Charge Prediction Models Learn Legal Theory? [59.74220430434435]
我々は、信頼できる電荷予測モデルが法的理論を考慮に入れるべきであると主張している。
本稿では,この課題に従わなければならない信頼に値するモデルの3つの原則を提案する。
以上の結果から,既存の電荷予測モデルはベンチマークデータセットの選択的原理に合致するが,そのほとんどが十分な感度が得られず,無害の予測を満たさないことが示唆された。
論文 参考訳(メタデータ) (2022-10-31T07:32:12Z) - Explainable Artificial Intelligence for Assault Sentence Prediction in
New Zealand [0.0]
本稿では,ニュージーランドの裁判所における暴行事件における収監判決の予測に,説明可能な人工知能の活用の可能性について検討する。
本稿では,概念実証モデルを提案するとともに,予測文が1年以内の精度で目的に適したことを実証する。
本論文は,ニュージーランドの裁判所において,このようなAIモデルを使用するさまざまな方法の今後のメリットとリスクについて,評価的な議論で締めくくった。
論文 参考訳(メタデータ) (2022-08-15T02:52:18Z) - The Abduction of Sherlock Holmes: A Dataset for Visual Abductive
Reasoning [113.25016899663191]
人間は、画像のリテラルの内容を超えるものについて、誘惑的に推論し仮説を立てる能力がある。
本稿では,103K画像の注釈付きコーパスであるSherlockについて述べる。
論文 参考訳(メタデータ) (2022-02-10T02:26:45Z) - Legal Judgment Prediction with Multi-Stage CaseRepresentation Learning
in the Real Court Setting [25.53133777558123]
本稿では, 実地裁判所から新たなデータセットを導入し, 法的な判断を合理的に百科事典的に予測する。
大規模な民事裁判データセットを用いた広範な実験は、提案モデルが、法的判断予測のためのクレーム、事実、議論の間の相互作用をより正確に特徴付けることができることを示している。
論文 参考訳(メタデータ) (2021-07-12T04:27:14Z) - What About the Precedent: An Information-Theoretic Analysis of Common
Law [64.49276556192073]
一般的な法律では、新しい事件の結果は、既存の法令ではなく、前例によって決定されることが多い。
私たちは、2つの長年にわたる法学的な見解を比較することで、この問題に最初に取り組みました。
前例の主張は事件の結果と0.38ナットの情報を共有しているのに対し、前例の事実は0.18ナットの情報しか共有していない。
論文 参考訳(メタデータ) (2021-04-25T11:20:09Z) - AI-lead Court Debate Case Investigation [24.221021061471177]
裁判では、裁判官がその事件についてより明確に理解できるように、裁判官が効率的な疑問を提起するのに役立つ。
本研究では, 試行脳構築のための革新的エンドツーエンド質問生成モデル-Trial Brain Model (TBM)を提案する。
論文 参考訳(メタデータ) (2020-10-22T11:05:14Z) - Legal Judgment Prediction (LJP) Amid the Advent of Autonomous AI Legal
Reasoning [0.0]
法的判断予測は、法律の理論と実践において、長くかつオープンなトピックである。
訴訟や司法行動を予測する様々な方法や技法が、長年にわたって出現してきた。
AI法則推論の出現は、LJPの実行方法とその予測精度に顕著な影響を与える。
論文 参考訳(メタデータ) (2020-09-29T00:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。