論文の概要: FiSTECH: Financial Style Transfer to Enhance Creativity without Hallucinations in LLMs
- arxiv url: http://arxiv.org/abs/2408.05365v4
- Date: Sun, 17 Nov 2024 07:22:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:30:45.200275
- Title: FiSTECH: Financial Style Transfer to Enhance Creativity without Hallucinations in LLMs
- Title(参考訳): FiSTECH:LLMにおける幻覚のない創造性への金融スタイルの移転
- Authors: Sohini Roychowdhury, Marko Krema, Brian Moore, Xingjian Lai, Dike Effedua, Bharat Jethwani,
- Abstract要約: 我々は,大規模言語モデル(LLM)の自己修正的自己回帰特性を探求し,最小限のプロンプトで書き方で創造性を学習する。
本稿では,2段階のファインチューニング(FT)戦略を提案し,第1段階のパブリックドメインファイナンシャルレポートを用いて書体スタイルのトレーニングを行い,LLMの幻覚を許容する。
提案する2段階ファインチューニングは,幻覚を50%以上減らしながら,2段階の金融質問の精度を向上する。
- 参考スコア(独自算出の注目度): 0.3958317527488534
- License:
- Abstract: Recent trends in Generative AI have emerged towards fine-tuning foundational large language models (LLMs) to create domain-specific LLMs for automation and chatbot-like applications. Specialized applications for analytics-heavy domains such as Financial report generation require specific writing styles that comprise compound and creative sentences with minimized hallucinations. In this work, we explore the self-corrective auto-regressive qualities of LLMs to learn creativity in writing styles with minimal prompting. We propose a novel two-stage fine-tuning (FT) strategy wherein in the first stage public domain financial reports are used to train for writing styles while allowing the LLM to hallucinate. In the second stage the examples of hallucinations are manually corrected and further used to fine-tune the LLM. The finally trained LLM learns to generate specific financial report sections using minimal instructions and tabular data inputs while ensuring low fine-tuning costs. Our proposed two-stage fine-tuning boosts the accuracy of financial questions answering by two-folds while reducing hallucinations by over 50%. Also, the fine-tuned model has lower perplexity, improved ROUGE, TER and BLEU scores, higher creativity and knowledge density with lower uncertainty and cross entropy than base LLMs. Thus, the proposed framework can be generalized to train creativity in LLMs by first allowing them to hallucinate.
- Abstract(参考訳): Generative AIの最近のトレンドは、自動化やチャットボットのようなアプリケーションのためのドメイン固有のLLMを作成するために、微調整された基盤となる大規模言語モデル(LLM)に向かっている。
ファイナンシャル・レポート・ジェネレーション(英語版)のような分析に重きを置く分野の専門的な応用は、幻覚を最小限に抑えた複合文と創造文からなる特定の書体スタイルを必要とする。
本研究では,LLMの自己修正的自己回帰的性質を探求し,最小限のプロンプトで書体で創造性を学習する。
本稿では,2段階のファインチューニング(FT)戦略を提案し,第1段階のパブリックドメインファイナンシャルレポートを用いて書体スタイルのトレーニングを行い,LLMの幻覚を許容する。
第2段階では幻覚の例は手動で修正され、さらにLSMを微調整するために使用される。
最終的に訓練されたLLMは、最小限の命令と表形式のデータ入力を使用して、微調整コストを低く抑えながら、特定の財務報告セクションを生成することを学ぶ。
提案する2段階ファインチューニングは,幻覚を50%以上減らしながら,2段階の金融質問の精度を向上する。
また, 微調整モデルでは, 難易度が低く, ROUGE, TER, BLEUスコアが向上し, 創造性や知識密度が向上し, 基礎LLMよりも高い不確実性とクロスエントロピーが得られた。
したがって、提案フレームワークは、まず幻覚を許容することにより、LCMの創造性を訓練するために一般化することができる。
関連論文リスト
- DecoPrompt : Decoding Prompts Reduces Hallucinations when Large Language Models Meet False Premises [28.72485319617863]
幻覚を緩和する新しいプロンプトアルゴリズムDecoPromptを提案する。
DecoPrompt は LLM を利用して偽前提のプロンプトを "デコード" する。
2つのデータセットで実験を行い、DecoPromptは異なるLLMから出力された幻覚を効果的に低減できることを示した。
論文 参考訳(メタデータ) (2024-11-12T00:48:01Z) - LongHalQA: Long-Context Hallucination Evaluation for MultiModal Large Language Models [96.64960606650115]
LongHalQA (LongHalQA) は、6Kの長い複雑な幻覚テキストからなるLLMフリー幻覚ベンチマークである。
LongHalQA は GPT4V の生成した幻覚データによって特徴付けられる。
論文 参考訳(メタデータ) (2024-10-13T18:59:58Z) - Can LLM be a Good Path Planner based on Prompt Engineering? Mitigating the Hallucination for Path Planning [2.313664320808389]
本研究では、空間-関係変換とカリキュラムQ-Learning(S2RCQL)という革新的なモデルを提案する。
そこで我々は,Qラーニングに基づく経路計画アルゴリズムを設計し,文脈不整合の幻覚を緩和する。
プロンプトの補助情報として状態反応のQ-値を用いて,LLMの幻覚を補正する。
論文 参考訳(メタデータ) (2024-08-23T16:02:54Z) - FLAME: Factuality-Aware Alignment for Large Language Models [86.76336610282401]
従来のアライメントプロセスでは,大規模言語モデル(LLM)の事実精度が向上しない。
両段階の幻覚につながる要因は,教師付き微調整(SFT)と強化学習(RL)である。
直接選好最適化により,事実認識型SFTと事実認識型RLで構成された事実認識型アライメントを提案する。
論文 参考訳(メタデータ) (2024-05-02T17:54:54Z) - "Sorry, Come Again?" Prompting -- Enhancing Comprehension and Diminishing Hallucination with [PAUSE]-injected Optimal Paraphrasing [10.20632187568563]
幻覚は現代大言語モデル(LLM)の最も脆弱な側面として現れてきた。
本稿では,LCMの幻覚を避けることを目的としたSCAプロンプトについて紹介する。
本稿では,21のLLMに対するプロンプトの形式性,可読性,具体性について,言語的ニュアンスを詳細に分析する。
与えられたプロンプトの最も理解しやすいパラフレーズを識別する最適なパラフレーズ化手法を提案する。
論文 参考訳(メタデータ) (2024-03-27T19:45:09Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - Improving Factual Consistency of Text Summarization by Adversarially
Decoupling Comprehension and Embellishment Abilities of LLMs [67.56087611675606]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
LLM(DECENT)の能力を阻害する逆デカップリング法を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。