論文の概要: Journey of Hallucination-minimized Generative AI Solutions for Financial
Decision Makers
- arxiv url: http://arxiv.org/abs/2311.10961v1
- Date: Sat, 18 Nov 2023 03:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 13:06:43.608423
- Title: Journey of Hallucination-minimized Generative AI Solutions for Financial
Decision Makers
- Title(参考訳): 金融意思決定者のための幻覚最小生成aiソリューションの旅
- Authors: Sohini Roychowdhury
- Abstract要約: 大規模言語モデル(LLM)は、主にソフトウェア監視やレポート生成などの自動化機能に利用されています。
現在進化しているLLMファミリーの1つの大きな制限は「幻覚」であり、不正確な反応は事実であると報告されている。
意思決定者向けのソリューションを設計する際には、幻覚のモニタリングと制御が必要である。
- 参考スコア(独自算出の注目度): 0.65268245109828
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative AI has significantly reduced the entry barrier to the domain of AI
owing to the ease of use and core capabilities of automation, translation, and
intelligent actions in our day to day lives. Currently, Large language models
(LLMs) that power such chatbots are being utilized primarily for their
automation capabilities for software monitoring, report generation etc. and for
specific personalized question answering capabilities, on a limited scope and
scale. One major limitation of the currently evolving family of LLMs is
'hallucinations', wherein inaccurate responses are reported as factual.
Hallucinations are primarily caused by biased training data, ambiguous prompts
and inaccurate LLM parameters, and they majorly occur while combining
mathematical facts with language-based context. Thus, monitoring and
controlling for hallucinations becomes necessary when designing solutions that
are meant for decision makers. In this work we present the three major stages
in the journey of designing hallucination-minimized LLM-based solutions that
are specialized for the decision makers of the financial domain, namely:
prototyping, scaling and LLM evolution using human feedback. These three stages
and the novel data to answer generation modules presented in this work are
necessary to ensure that the Generative AI chatbots, autonomous reports and
alerts are reliable and high-quality to aid key decision-making processes.
- Abstract(参考訳): 生成AIは、私たちの日々の生活における自動化、翻訳、インテリジェントな行動の使いやすさと中核的な能力のために、AIの領域への参入障壁を著しく減らした。
現在、このようなチャットボットを駆動するLarge Language Model(LLM)は、ソフトウェア監視やレポート生成などの自動化機能や、限定されたスコープとスケールで特定のパーソナライズされた質問応答機能に主に利用されている。
現在発展しているllmファミリーの1つの大きな制限は「幻覚」であり、不正確な応答が事実として報告される。
幻覚は、主にバイアス付きトレーニングデータ、曖昧なプロンプト、不正確なLLMパラメータによって引き起こされる。
したがって、意思決定者向けのソリューションを設計する際には、幻覚の監視と制御が必要である。
本稿では,金融分野の意思決定に特化している幻覚最小化LPMソリューション,すなわち,ヒューマンフィードバックを用いたプロトタイピング,スケーリング,LSM進化の3つの主要な段階について述べる。
これらの3つのステージと、この研究で提示された新しいデータには、生成AIチャットボット、自律的なレポート、アラートが信頼性が高く高品質であることを保証する必要がある。
関連論文リスト
- Testing and Understanding Erroneous Planning in LLM Agents through Synthesized User Inputs [12.412286518773028]
大規模言語モデル(LLM)は、幅広いタスクを解くのに有効であることを示した。
LLMは、特にタスクが複雑で長期計画を必要とする場合、誤った計画を立てる傾向がある。
提案するPDoctorは,LLMエージェントをテストし,それらの誤った計画を理解するための新しいアプローチである。
論文 参考訳(メタデータ) (2024-04-27T08:56:45Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - RAG-Driver: Generalisable Driving Explanations with Retrieval-Augmented In-Context Learning in Multi-Modal Large Language Model [22.25903116720301]
説明責任は、信頼できる自律的な意思決定において重要な役割を果たす。
MLLM(Multi-Modal Large Language Model)の最近の進歩は、駆動エージェントとしての説明可能性を高める有望な可能性を示している。
提案するRAG-Driverは,高機能,説明性,一般化可能な自律運転にコンテキスト内学習を活用する,検索強化型多モード大言語モデルである。
論文 参考訳(メタデータ) (2024-02-16T16:57:18Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - ChatGPT as your Personal Data Scientist [0.9689893038619583]
本稿では,ChatGPTを用いた対話型データサイエンスフレームワークについて紹介する。
データビジュアライゼーション、タスクの定式化、予測エンジニアリング、結果概要と勧告の4つのダイアログ状態を中心に、私たちのモデルが中心になっています。
要約して,会話データ科学の新たな概念が実現可能であることを証明するとともに,複雑なタスクを解く上でLLMが有効であることを示すエンド・ツー・エンド・エンド・システムを開発した。
論文 参考訳(メタデータ) (2023-05-23T04:00:16Z) - Mixture of Soft Prompts for Controllable Data Generation [21.84489422361048]
直接予測ではなく,データ拡張のためのツールとして,ソフトプロンプトの混合(MSP)を提案する。
提案手法は, 強いベースラインと比較した場合の3つのベンチマークに対して, 最先端の結果を得る。
論文 参考訳(メタデータ) (2023-03-02T21:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。