論文の概要: Hallucination is the last thing you need
- arxiv url: http://arxiv.org/abs/2306.11520v1
- Date: Tue, 20 Jun 2023 13:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 14:13:42.629270
- Title: Hallucination is the last thing you need
- Title(参考訳): 幻覚が最後に必要なもの
- Authors: Shawn Curran, Sam Lansley, Oliver Bethell
- Abstract要約: 生成型AIモデルは、理解、経験、事実チェックの手順の複雑な相互作用の統合とナビゲートに苦労する。
生成的AIが理解と経験を出力し、同様のトピックに関する様々な主観的な見解の集合を反映している場合、これはしばしば重要な法的事実からモデルの注意を逸脱させる。
我々は、共通の法律判断のような重要な情報資産を保護するために、ミュートリ長のトークン化の概念を導入し、最後に、法的な幻覚のための最も先進的な公開モデルに疑問を投げかける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The legal profession necessitates a multidimensional approach that involves
synthesizing an in-depth comprehension of a legal issue with insightful
commentary based on personal experience, combined with a comprehensive
understanding of pertinent legislation, regulation, and case law, in order to
deliver an informed legal solution. The present offering with generative AI
presents major obstacles in replicating this, as current models struggle to
integrate and navigate such a complex interplay of understanding, experience,
and fact-checking procedures. It is noteworthy that where generative AI outputs
understanding and experience, which reflect the aggregate of various subjective
views on similar topics, this often deflects the model's attention from the
crucial legal facts, thereby resulting in hallucination. Hence, this paper
delves into the feasibility of three independent LLMs, each focused on
understanding, experience, and facts, synthesising as one single ensemble model
to effectively counteract the current challenges posed by the existing
monolithic generative AI models. We introduce an idea of mutli-length
tokenisation to protect key information assets like common law judgements, and
finally we interrogate the most advanced publicly available models for legal
hallucination, with some interesting results.
- Abstract(参考訳): 法律専門職は、個人的経験に基づく洞察に富んだ解説と、関連する立法、規制、事件法に関する包括的理解を組み合わせることで、インフォームドな法的解決を提供するために、法的問題を深く理解することを含む多次元的アプローチを必要とする。
現在のモデルでは、理解、経験、事実チェックといった複雑な相互作用の統合とナビゲートに苦労しているため、生成AIによる現在の提供は、これを複製する上で大きな障害となる。
生成的AIが理解と経験を出力し、同様のトピックに関する様々な主観的な見解を反映している場合、これはしばしば重要な法的事実からモデルの注意を逸脱させ、幻覚をもたらす。
そこで,本稿では,既存のモノリシック生成型AIモデルによる現在の課題を効果的に対処するために,一つのアンサンブルモデルとして,理解,経験,事実に焦点を当てた3つの独立したLLMの実現可能性について論じる。
我々は、共通の法律判断のような重要な情報資産を保護するために、ミュートリ長のトークン化の概念を導入し、最後に、法的な幻覚のために最も高度な公開モデルに疑問を投げかける。
関連論文リスト
- Cantor: Inspiring Multimodal Chain-of-Thought of MLLM [83.6663322930814]
視覚的コンテキスト獲得と論理的推論の集約は、視覚的推論タスクに取り組む上で重要であると我々は主張する。
我々はCantorと呼ばれる革新的なマルチモーダルCoTフレームワークを提案し、その特徴は知覚決定アーキテクチャである。
提案手法の有効性を実証し,マルチモーダルCoT性能の大幅な向上を示した。
論文 参考訳(メタデータ) (2024-04-24T17:59:48Z) - The Hallucinations Leaderboard -- An Open Effort to Measure Hallucinations in Large Language Models [24.11077502209129]
大規模言語モデル(LLM)は自然言語処理(NLP)のランドスケープを、人間のようなテキストを理解して生成する優れた能力で変えてきた。
しかし、これらのモデルは幻覚(幻覚)の傾向があり、実際の現実や入力コンテキストと一致しない。
本稿では,各モデルの幻覚発生傾向を定量的に測定し,比較するオープンイニシアチブである幻覚リーダーボードを紹介する。
論文 参考訳(メタデータ) (2024-04-08T23:16:22Z) - Leveraging Large Language Models for Learning Complex Legal Concepts
through Storytelling [44.30097472877668]
我々は,非専門家がストーリーテリングを通じて複雑な法的概念を学ぶのを支援するために,法律教育における大規模言語モデル(LLM)の新たな応用法を提案する。
295の複雑な法的教義からなり、それぞれに物語と複数の選択肢の質問が伴う。
LLMが生成した物語は、定義のみに比較して、法的概念の理解と、非ネイティブ話者間の法律への関心を高めることが判明した。
論文 参考訳(メタデータ) (2024-02-26T20:56:06Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - A Survey on Hallucination in Large Language Models: Principles,
Taxonomy, Challenges, and Open Questions [42.007305423982515]
大型言語モデル(LLM)は幻覚を生じさせ、現実の事実やユーザ入力と矛盾する内容をもたらす。
本調査は, LLM幻覚の分野での最近の進歩について, 徹底的, 徹底的に概観することを目的としている。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z) - Legal Element-oriented Modeling with Multi-view Contrastive Learning for
Legal Case Retrieval [3.909749182759558]
本稿では,多視点コントラスト学習目標を用いた訴訟検索のための対話型ネットワークを提案する。
ケースビューコントラスト学習は、関連する訴訟表現の間の隠れた空間距離を最小化する。
ケースの法的な要素を検出するために、法的な要素の知識を意識した指標を用いています。
論文 参考訳(メタデータ) (2022-10-11T06:47:23Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。