論文の概要: Hallucination is the last thing you need
- arxiv url: http://arxiv.org/abs/2306.11520v1
- Date: Tue, 20 Jun 2023 13:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 14:13:42.629270
- Title: Hallucination is the last thing you need
- Title(参考訳): 幻覚が最後に必要なもの
- Authors: Shawn Curran, Sam Lansley, Oliver Bethell
- Abstract要約: 生成型AIモデルは、理解、経験、事実チェックの手順の複雑な相互作用の統合とナビゲートに苦労する。
生成的AIが理解と経験を出力し、同様のトピックに関する様々な主観的な見解の集合を反映している場合、これはしばしば重要な法的事実からモデルの注意を逸脱させる。
我々は、共通の法律判断のような重要な情報資産を保護するために、ミュートリ長のトークン化の概念を導入し、最後に、法的な幻覚のための最も先進的な公開モデルに疑問を投げかける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The legal profession necessitates a multidimensional approach that involves
synthesizing an in-depth comprehension of a legal issue with insightful
commentary based on personal experience, combined with a comprehensive
understanding of pertinent legislation, regulation, and case law, in order to
deliver an informed legal solution. The present offering with generative AI
presents major obstacles in replicating this, as current models struggle to
integrate and navigate such a complex interplay of understanding, experience,
and fact-checking procedures. It is noteworthy that where generative AI outputs
understanding and experience, which reflect the aggregate of various subjective
views on similar topics, this often deflects the model's attention from the
crucial legal facts, thereby resulting in hallucination. Hence, this paper
delves into the feasibility of three independent LLMs, each focused on
understanding, experience, and facts, synthesising as one single ensemble model
to effectively counteract the current challenges posed by the existing
monolithic generative AI models. We introduce an idea of mutli-length
tokenisation to protect key information assets like common law judgements, and
finally we interrogate the most advanced publicly available models for legal
hallucination, with some interesting results.
- Abstract(参考訳): 法律専門職は、個人的経験に基づく洞察に富んだ解説と、関連する立法、規制、事件法に関する包括的理解を組み合わせることで、インフォームドな法的解決を提供するために、法的問題を深く理解することを含む多次元的アプローチを必要とする。
現在のモデルでは、理解、経験、事実チェックといった複雑な相互作用の統合とナビゲートに苦労しているため、生成AIによる現在の提供は、これを複製する上で大きな障害となる。
生成的AIが理解と経験を出力し、同様のトピックに関する様々な主観的な見解を反映している場合、これはしばしば重要な法的事実からモデルの注意を逸脱させ、幻覚をもたらす。
そこで,本稿では,既存のモノリシック生成型AIモデルによる現在の課題を効果的に対処するために,一つのアンサンブルモデルとして,理解,経験,事実に焦点を当てた3つの独立したLLMの実現可能性について論じる。
我々は、共通の法律判断のような重要な情報資産を保護するために、ミュートリ長のトークン化の概念を導入し、最後に、法的な幻覚のために最も高度な公開モデルに疑問を投げかける。
関連論文リスト
- A Debate-Driven Experiment on LLM Hallucinations and Accuracy [7.821303946741665]
本研究では,大規模言語モデル(LLM)における幻覚現象について検討する。
GPT-4o-Miniモデルの複数のインスタンスは、TrathfulQAデータセットからの質問によって引き起こされた議論のような相互作用に関与している。
1つのモデルは、もっともらしいが偽の答えを生成するように故意に指示され、他のモデルは真に応答するように要求される。
論文 参考訳(メタデータ) (2024-10-25T11:41:27Z) - The Cost of Arbitrariness for Individuals: Examining the Legal and Technical Challenges of Model Multiplicity [4.514832807541816]
本稿では,乗法に起因する様々な個人的関心事について考察する。
これは、これらの懸念に関する実証的な調査と、法的な観点からの包括的な分析の両方を提供し、カナダの反差別法においてこれらの問題がどのように認識されているかに対処する。
本稿では,現行のモデル乗法における法的要件を満たすための技術的課題と,現行法とモデル選択における任意性の影響との法的ギャップについて論じる。
論文 参考訳(メタデータ) (2024-05-28T21:54:03Z) - Cantor: Inspiring Multimodal Chain-of-Thought of MLLM [83.6663322930814]
視覚的コンテキスト獲得と論理的推論の集約は、視覚的推論タスクに取り組む上で重要であると我々は主張する。
我々はCantorと呼ばれる革新的なマルチモーダルCoTフレームワークを提案し、その特徴は知覚決定アーキテクチャである。
提案手法の有効性を実証し,マルチモーダルCoT性能の大幅な向上を示した。
論文 参考訳(メタデータ) (2024-04-24T17:59:48Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Leveraging Large Language Models for Learning Complex Legal Concepts through Storytelling [43.243889347008455]
我々は,非専門家がストーリーテリングを通じて複雑な法的概念を学ぶのを支援するために,法律教育における大規模言語モデル(LLM)の新たな応用法を提案する。
そこで我々は,294の複雑な法的教義からなり,それぞれに物語と複数の選択肢の質問が伴う新たなデータセットであるLegalStoriesを紹介した。
LLMが生成した物語は、定義のみに比較して、法的概念の理解と、非ネイティブ話者間の法律への関心を高めることが判明した。
論文 参考訳(メタデータ) (2024-02-26T20:56:06Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Legal Element-oriented Modeling with Multi-view Contrastive Learning for
Legal Case Retrieval [3.909749182759558]
本稿では,多視点コントラスト学習目標を用いた訴訟検索のための対話型ネットワークを提案する。
ケースビューコントラスト学習は、関連する訴訟表現の間の隠れた空間距離を最小化する。
ケースの法的な要素を検出するために、法的な要素の知識を意識した指標を用いています。
論文 参考訳(メタデータ) (2022-10-11T06:47:23Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。