論文の概要: Kuaiji: the First Chinese Accounting Large Language Model
- arxiv url: http://arxiv.org/abs/2402.13866v1
- Date: Wed, 21 Feb 2024 15:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 14:54:16.344506
- Title: Kuaiji: the First Chinese Accounting Large Language Model
- Title(参考訳): クアイジ:中国初の会計大言語モデル
- Authors: Jiayuan Luo, Songhua Yang, Xiaoling Qiu, Panyu Chen, Yufei Nai,
Wenxuan Zeng, Wentao Zhang, Xinke Jiang
- Abstract要約: 本稿では,会計大言語モデルであるKuaijiを紹介する。
Kuaijiは、連続的な事前トレーニングと監督された微調整プロセスを含むBaichuanフレームワークを使用して、慎重に微調整されている。
コントリビューションには、最初の中国の会計データセットの作成、オープンソースの中国の会計LLMとしてのKuaijiの確立、実世界の会計シナリオによるその有効性検証が含まれている。
- 参考スコア(独自算出の注目度): 17.876792508167256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) like ChatGPT and GPT-4 have demonstrated
impressive proficiency in comprehending and generating natural language.
However, they encounter difficulties when tasked with adapting to specialized
domains such as accounting. To address this challenge, we introduce Kuaiji, a
tailored Accounting Large Language Model. Kuaiji is meticulously fine-tuned
using the Baichuan framework, which encompasses continuous pre-training and
supervised fine-tuning processes. Supported by CAtAcctQA, a dataset containing
large genuine accountant-client dialogues, Kuaiji exhibits exceptional accuracy
and response speed. Our contributions encompass the creation of the first
Chinese accounting dataset, the establishment of Kuaiji as a leading
open-source Chinese accounting LLM, and the validation of its efficacy through
real-world accounting scenarios.
- Abstract(参考訳): ChatGPT や GPT-4 のような大規模言語モデル (LLM) は、自然言語の理解と生成に優れた能力を示している。
しかし、会計などの専門分野に適応するにあたっては困難に遭遇する。
この課題に対処するため,我々は,会計用大規模言語モデルであるkuaijiを紹介する。
Kuaijiは、連続的な事前トレーニングと監督された微調整プロセスを含むBaichuanフレームワークを使用して、慎重に微調整されている。
CAtAcctQA(英語版)によってサポートされている、大きな真の会計士とクライアントの対話を含むデータセットは、例外的な精度と応答速度を示す。
当社の貢献は,中国初の会計データセットの作成,中国の主要な会計llmとしてのkuaijiの確立,実世界の会計シナリオによる有効性の検証などに関するものです。
関連論文リスト
- RedWhale: An Adapted Korean LLM Through Efficient Continual Pretraining [0.0]
韓国語処理に特化したモデルであるRedWhaleを紹介する。
RedWhaleは、韓国の包括的コーパス前処理パイプラインを含む効率的な継続事前訓練アプローチを用いて開発されている。
実験の結果、RedWhaleは韓国のNLPベンチマークで他の主要なモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-21T02:49:41Z) - Economy Watchers Survey provides Datasets and Tasks for Japanese Financial Domain [5.9001403107681405]
中央政府機関が発行する資料を用いて,2つの大規模データセットを構築した。
データセットは3つの日本の金融NLPタスクを提供する。
私たちのデータセットは包括的で最新のように設計されており、自動更新フレームワークを活用しています。
論文 参考訳(メタデータ) (2024-07-20T02:35:14Z) - No Language is an Island: Unifying Chinese and English in Financial Large Language Models, Instruction Data, and Benchmarks [75.29561463156635]
ICE-PIXIUは、翻訳された英語とオリジナルの英語のデータセットとともに、中国語のタスクのスペクトルを統合する。
多様なモデル変種への無制限アクセス、多言語および多モーダル命令データのコンパイル、エキスパートアノテーションによる評価ベンチマークを提供する。
論文 参考訳(メタデータ) (2024-03-10T16:22:20Z) - CIF-Bench: A Chinese Instruction-Following Benchmark for Evaluating the Generalizability of Large Language Models [53.9835961434552]
本研究では,中国語に対する大規模言語モデル(LLM)の一般化性を評価するために,中国語命令追跡ベンチマーク(CIF-Bench)を導入する。
CIF-Benchは150のタスクと15,000の入力出力ペアで構成され、複雑な推論と中国の文化的ニュアンスをテストするためにネイティブスピーカーによって開発された。
データ汚染を軽減するため、データセットの半分しか公開せず、残りは非公開であり、スコア分散を最小限に抑えるために多種多様な命令を導入する。
論文 参考訳(メタデータ) (2024-02-20T16:02:12Z) - Machine Translation to Control Formality Features in the Target Language [0.9208007322096532]
本研究では、機械学習が英語からフォーマルな言語への翻訳にどのように使われているかを検討する。
これは、形式性制御された設定でバイリンガルモデルを訓練し、その性能を事前訓練された多言語モデルと比較することで実現された。
予測されたマスク付きトークンと基底真理を比較することにより,公式な形式性精度(ACC)を評価する。
論文 参考訳(メタデータ) (2023-11-22T15:42:51Z) - Is ChatGPT a Financial Expert? Evaluating Language Models on Financial
Natural Language Processing [22.754757518792395]
FinLMEvalは金融言語モデル評価のためのフレームワークである。
本研究では,エンコーダのみの言語モデルとデコーダのみの言語モデルの性能を比較した。
論文 参考訳(メタデータ) (2023-10-19T11:43:15Z) - HAE-RAE Bench: Evaluation of Korean Knowledge in Language Models [0.0]
HAE-RAE Benchは,韓国の文化的・文脈的深度に欠けるモデルに挑戦するためのデータセットである。
このデータセットは、語彙、歴史、一般的な知識、読み理解の4つの領域にまたがる6つの下流タスクを含んでいる。
論文 参考訳(メタデータ) (2023-09-06T04:38:16Z) - Cross-Lingual NER for Financial Transaction Data in Low-Resource
Languages [70.25418443146435]
半構造化テキストデータにおける言語間名前認識のための効率的なモデリングフレームワークを提案する。
我々は2つの独立したSMSデータセットを英語とアラビア語で使用し、それぞれが半構造化された銀行取引情報を持っている。
わずか30のラベル付きサンプルにアクセスすることで、我々のモデルは、英語からアラビア語までの商人、金額、その他の分野の認識を一般化することができる。
論文 参考訳(メタデータ) (2023-07-16T00:45:42Z) - QAmeleon: Multilingual QA with Only 5 Examples [71.80611036543633]
数ショットの学習環境下で事前学習した言語モデルを利用する方法を示す。
我々のアプローチであるQAmeleonは、PLMを使用して、QAモデルをトレーニングした多言語データを自動的に生成する。
言語毎に5つの例しか持たないデータ合成のためにPLMをプロンプトチューニングすることで、翻訳ベースのベースラインよりも精度が向上する。
論文 参考訳(メタデータ) (2022-11-15T16:14:39Z) - Scheduled Multi-task Learning for Neural Chat Translation [66.81525961469494]
ニューラルチャット翻訳(NCT)のためのマルチタスク学習フレームワークを提案する。
具体的には、大規模なドメイン内チャット翻訳データをトレーニングに組み込むための3段階のトレーニングフレームワークを考案する。
提案手法の有効性と優越性を検証するために, 4言語方向の広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-05-08T02:57:28Z) - CPM: A Large-scale Generative Chinese Pre-trained Language Model [76.65305358932393]
我々は,大規模な中国語学習データに基づく生成事前学習を備えた中国語事前学習言語モデル(CPM)をリリースする。
CPMは、数ショット(ゼロショットでも)学習の設定において、多くのNLPタスクで強力なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-12-01T11:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。