論文の概要: CAT-LLM: Prompting Large Language Models with Text Style Definition for
Chinese Article-style Transfer
- arxiv url: http://arxiv.org/abs/2401.05707v1
- Date: Thu, 11 Jan 2024 07:18:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 19:35:49.893022
- Title: CAT-LLM: Prompting Large Language Models with Text Style Definition for
Chinese Article-style Transfer
- Title(参考訳): CAT-LLM:中国語記事転送のためのテキストスタイル定義による大規模言語モデルの提案
- Authors: Zhen Tao, Dinghao Xi, Zhiyu Li, Liumin Tang, Wei Xu
- Abstract要約: CAT-LLM には、記事中のテキストの特徴を包括的に分析することを目的とした、bespoke, pluggable Text Style Definition (TSD) モジュールが組み込まれている。
TSDモジュールは一連の機械学習アルゴリズムを統合し、単語と文のレベルから記事スタイルを分析する。
異なるスタイルの5つの中国語記事を選択し、ChatGPTを用いて5つの並列データセットを作成する。
- 参考スコア(独自算出の注目度): 10.027843402296678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text style transfer is increasingly prominent in online entertainment and
social media. However, existing research mainly concentrates on style transfer
within individual English sentences, while ignoring the complexity of long
Chinese texts, which limits the wider applicability of style transfer in
digital media realm. To bridge this gap, we propose a Chinese Article-style
Transfer framework (CAT-LLM), leveraging the capabilities of Large Language
Models (LLMs). CAT-LLM incorporates a bespoke, pluggable Text Style Definition
(TSD) module aimed at comprehensively analyzing text features in articles,
prompting LLMs to efficiently transfer Chinese article-style. The TSD module
integrates a series of machine learning algorithms to analyze article-style
from both words and sentences levels, thereby aiding LLMs thoroughly grasp the
target style without compromising the integrity of the original text. In
addition, this module supports dynamic expansion of internal style trees,
showcasing robust compatibility and allowing flexible optimization in
subsequent research. Moreover, we select five Chinese articles with distinct
styles and create five parallel datasets using ChatGPT, enhancing the models'
performance evaluation accuracy and establishing a novel paradigm for
evaluating subsequent research on article-style transfer. Extensive
experimental results affirm that CAT-LLM outperforms current research in terms
of transfer accuracy and content preservation, and has remarkable applicability
to various types of LLMs.
- Abstract(参考訳): オンラインエンタテインメントやソーシャルメディアではテキストスタイル転送が注目されている。
しかし、既存の研究は主に個々の英文におけるスタイル転送に集中しているが、長文の複雑さは無視され、デジタルメディア分野におけるスタイル転送のより広い適用性が制限されている。
このギャップを埋めるために,大言語モデル(LLM)の能力を活用した中国語記事スタイル転送フレームワーク(CAT-LLM)を提案する。
CAT-LLMには、記事中のテキストの特徴を包括的に分析することを目的とした、スポークでプラグイン可能なテキストスタイル定義(TSD)モジュールが組み込まれている。
TSDモジュールは、一連の機械学習アルゴリズムを統合して、単語と文のレベルから記事スタイルを分析することにより、LLMが元のテキストの完全性を損なうことなく、ターゲットスタイルを徹底的に把握できるようにする。
さらに、このモジュールは内部スタイルツリーの動的拡張をサポートし、堅牢な互換性を示し、その後の研究で柔軟な最適化を可能にする。
さらに,異なるスタイルを持つ5つの中国語記事を選択し,chatgptを用いて5つの並列データセットを作成し,モデルの性能評価精度を高め,その後の研究成果を評価するための新しいパラダイムを確立した。
CAT-LLMは転送精度とコンテンツ保存の点で現在の研究よりも優れており,様々な種類のLCMに適用可能であることが確認された。
関連論文リスト
- A Novel Paradigm Boosting Translation Capabilities of Large Language Models [11.537249547487045]
本論文は,一貫した単言語データを用いた二次事前学習,インターリニアテキストフォーマット文書による継続事前学習,および教師付きファインチューニングのためのソース・ランゲージ・コンスタント・インストラクションの活用という,3つの段階からなる新しいパラダイムを提案する。
Llama2モデルを用いた実験結果,特に中国語-Llama2を用いて,LLMの翻訳能力の向上を実証した。
論文 参考訳(メタデータ) (2024-03-18T02:53:49Z) - Machine Translation with Large Language Models: Prompt Engineering for
Persian, English, and Russian Directions [0.0]
生成型大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、例外的な習熟性を示している。
我々は,ペルシャ語,英語,ロシア語の言語間組み合わせに着目した2つの普及促進手法とその組み合わせについて調査を行った。
論文 参考訳(メタデータ) (2024-01-16T15:16:34Z) - Speak Like a Native: Prompting Large Language Models in a Native Style [53.84738665918496]
In-context Learning (ICL) with large language model (LLMs) は、多くの自然言語処理タスクにおいて近代的なツールとなっている。
本稿では, LLMの推論能力を向上させるために, textbfAlignedCoT という新しい効果的手法を提案する。
数学的質問答え、常識的推論、テキスト理解に関するいくつかのベンチマークにおいて、広範囲かつ包括的な実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - A Simple yet Efficient Ensemble Approach for AI-generated Text Detection [0.5840089113969194]
大規模言語モデル(LLM)は、人間の文章によく似たテキストを生成する際、顕著な能力を示した。
人工的に生成されたテキストと人間が作成したテキストを区別できる自動化アプローチを構築することが不可欠である。
本稿では,複数の構成 LLM からの予測をまとめて,シンプルで効率的な解を提案する。
論文 参考訳(メタデータ) (2023-11-06T13:11:02Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - Adaptive Machine Translation with Large Language Models [7.803471587734353]
実時間適応型機械翻訳を改善するために,テキスト内学習をいかに活用できるかを検討する。
英語-アラビア語(EN-AR)、英語-中国語(EN-ZH)、英語-フランス語(EN-FR)、英語-キニャルワンダ(EN-RW)、英語-スペイン語(EN-ES)の5つの多種多様な言語対の実験を行った。
論文 参考訳(メタデータ) (2023-01-30T21:17:15Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - mT5: A massively multilingual pre-trained text-to-text transformer [60.0210636815514]
The Text-to-Text Transfer Transformer (T5) は、統一されたテキスト・トゥ・テキストフォーマットとスケールを利用して、英語のNLPタスクで最先端の結果を得る。
101言語をカバーする新しいCommon Crawlベースのデータセットで事前トレーニングを行ったマルチ言語版T5であるmT5を紹介する。
論文 参考訳(メタデータ) (2020-10-22T17:58:14Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。