論文の概要: Justifiable Artificial Intelligence: Engineering Large Language Models
for Legal Applications
- arxiv url: http://arxiv.org/abs/2311.15716v1
- Date: Mon, 27 Nov 2023 10:59:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-11-28 15:58:52.557424
- Title: Justifiable Artificial Intelligence: Engineering Large Language Models
for Legal Applications
- Title(参考訳): 正当性のある人工知能: 法律応用のための大規模言語モデル
- Authors: Sabine Wehnert
- Abstract要約: 私は、説明可能な人工知能ではなく、新しい視点であるJustible Artificial Intelligenceを支持する。
この論文では、Large Language Modelのアウトプットに対する証拠の取得が、どのようにして生成されたテキストをより信頼できるものにするか、あるいは誤報の責任を負うかを論じます。
- 参考スコア(独自算出の注目度): 2.7182152080462108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, I discuss how Large Language Models can be applied in the legal
domain, circumventing their current drawbacks. Despite their large success and
acceptance, their lack of explainability hinders legal experts to trust in
their output, and this happens rightfully so. However, in this paper, I argue
in favor of a new view, Justifiable Artificial Intelligence, instead of
focusing on Explainable Artificial Intelligence. I discuss in this paper how
gaining evidence for and against a Large Language Model's output may make their
generated texts more trustworthy - or hold them accountable for misinformation.
- Abstract(参考訳): 本稿では,Large Language Modelsを法的領域に適用して,現在の欠点を回避する方法について論じる。
その大きな成功と受容にもかかわらず、その説明責任の欠如は、法的専門家が彼らのアウトプットを信頼することを妨げる。
しかし,本稿では,説明可能な人工知能に注目するのではなく,新たな視点として正当化可能な人工知能を提唱する。
この論文では、Large Language Modelのアウトプットに対する証拠の取得が、どのようにして生成されたテキストをより信頼できるものにするか、あるいは誤報の責任を負うかを論じます。
関連論文リスト
- Don't Just Translate, Agitate: Using Large Language Models as Devil's Advocates for AI Explanations [1.6855625805565164]
大型言語モデル(LLM)は、特徴量などの説明可能性のテクニックから、自然言語の説明への変換に使用される。
最近の知見は、人間のような説明に翻訳することは、必ずしもユーザーの理解を高めるものではなく、代わりにAIシステムへの過度な信頼につながる可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-04-16T18:45:18Z) - The World of Generative AI: Deepfakes and Large Language Models [2.216882190540723]
Deepfakes and Large Language Models (LLMs) は、Generative Artificial Intelligence (GenAI) の2つの例である。
特にディープフェイクは、誤った情報を広めて真実を変えることができるため、社会に脅威をもたらす。
この記事では、それらの間のインランゲージを見つけようとします。
論文 参考訳(メタデータ) (2024-02-06T20:18:32Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - On pitfalls (and advantages) of sophisticated large language models [0.0]
大きな言語モデルへの過剰依存は破壊的な結果をもたらす可能性がある。
プライバシの権利、人間の偽造を流通させる可能性、そしてもっとも重要なことは、誤報の大規模な拡散を可能にすることだ。
論文 参考訳(メタデータ) (2023-02-25T11:14:39Z) - Large Language Models as Fiduciaries: A Case Study Toward Robustly
Communicating With Artificial Intelligence Through Legal Standards [0.0]
法的基準は、本質的に曖昧で具体的でない目標の堅牢なコミュニケーションを促進する。
私たちの研究は、法律標準のAI理解をより広く評価するためのフレームワークに向けた最初のステップです。
論文 参考訳(メタデータ) (2023-01-24T16:03:20Z) - Toward Improving Attentive Neural Networks in Legal Text Processing [0.20305676256390934]
本論文では,自動文書処理における注意神経ネットワークの改善における主な成果について述べる。
言語モデルは大きくなる傾向にあるが、専門家の知識がなければ、これらのモデルはドメイン適応で失敗する可能性がある。
論文 参考訳(メタデータ) (2022-03-15T20:45:22Z) - Chain of Thought Prompting Elicits Reasoning in Large Language Models [56.811278668446825]
本稿では,コヒーレントな思考連鎖を生成する言語モデルについて考察する。
実験により、プロンプトによって思考の連鎖を誘導することで、十分な大きな言語モデルが推論タスクをよりよく実行できるようになることが示されている。
論文 参考訳(メタデータ) (2022-01-28T02:33:07Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z) - A Dataset for Statutory Reasoning in Tax Law Entailment and Question
Answering [37.66486350122862]
本稿では,法定推論における自然言語理解手法の性能について検討する。
我々は、法的ドメインのテキストコーパスとともにデータセットを導入する。
タスクを完全に解くように設計された手作りPrologベースのシステムと対比する。
論文 参考訳(メタデータ) (2020-05-11T16:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。