論文の概要: CAT-LLM: Prompting Large Language Models with Text Style Definition for
Chinese Article-style Transfer
- arxiv url: http://arxiv.org/abs/2401.05707v1
- Date: Thu, 11 Jan 2024 07:18:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 19:35:49.893022
- Title: CAT-LLM: Prompting Large Language Models with Text Style Definition for
Chinese Article-style Transfer
- Title(参考訳): CAT-LLM:中国語記事転送のためのテキストスタイル定義による大規模言語モデルの提案
- Authors: Zhen Tao, Dinghao Xi, Zhiyu Li, Liumin Tang, Wei Xu
- Abstract要約: CAT-LLM には、記事中のテキストの特徴を包括的に分析することを目的とした、bespoke, pluggable Text Style Definition (TSD) モジュールが組み込まれている。
TSDモジュールは一連の機械学習アルゴリズムを統合し、単語と文のレベルから記事スタイルを分析する。
異なるスタイルの5つの中国語記事を選択し、ChatGPTを用いて5つの並列データセットを作成する。
- 参考スコア(独自算出の注目度): 10.027843402296678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text style transfer is increasingly prominent in online entertainment and
social media. However, existing research mainly concentrates on style transfer
within individual English sentences, while ignoring the complexity of long
Chinese texts, which limits the wider applicability of style transfer in
digital media realm. To bridge this gap, we propose a Chinese Article-style
Transfer framework (CAT-LLM), leveraging the capabilities of Large Language
Models (LLMs). CAT-LLM incorporates a bespoke, pluggable Text Style Definition
(TSD) module aimed at comprehensively analyzing text features in articles,
prompting LLMs to efficiently transfer Chinese article-style. The TSD module
integrates a series of machine learning algorithms to analyze article-style
from both words and sentences levels, thereby aiding LLMs thoroughly grasp the
target style without compromising the integrity of the original text. In
addition, this module supports dynamic expansion of internal style trees,
showcasing robust compatibility and allowing flexible optimization in
subsequent research. Moreover, we select five Chinese articles with distinct
styles and create five parallel datasets using ChatGPT, enhancing the models'
performance evaluation accuracy and establishing a novel paradigm for
evaluating subsequent research on article-style transfer. Extensive
experimental results affirm that CAT-LLM outperforms current research in terms
of transfer accuracy and content preservation, and has remarkable applicability
to various types of LLMs.
- Abstract(参考訳): オンラインエンタテインメントやソーシャルメディアではテキストスタイル転送が注目されている。
しかし、既存の研究は主に個々の英文におけるスタイル転送に集中しているが、長文の複雑さは無視され、デジタルメディア分野におけるスタイル転送のより広い適用性が制限されている。
このギャップを埋めるために,大言語モデル(LLM)の能力を活用した中国語記事スタイル転送フレームワーク(CAT-LLM)を提案する。
CAT-LLMには、記事中のテキストの特徴を包括的に分析することを目的とした、スポークでプラグイン可能なテキストスタイル定義(TSD)モジュールが組み込まれている。
TSDモジュールは、一連の機械学習アルゴリズムを統合して、単語と文のレベルから記事スタイルを分析することにより、LLMが元のテキストの完全性を損なうことなく、ターゲットスタイルを徹底的に把握できるようにする。
さらに、このモジュールは内部スタイルツリーの動的拡張をサポートし、堅牢な互換性を示し、その後の研究で柔軟な最適化を可能にする。
さらに,異なるスタイルを持つ5つの中国語記事を選択し,chatgptを用いて5つの並列データセットを作成し,モデルの性能評価精度を高め,その後の研究成果を評価するための新しいパラダイムを確立した。
CAT-LLMは転送精度とコンテンツ保存の点で現在の研究よりも優れており,様々な種類のLCMに適用可能であることが確認された。
関連論文リスト
- LUSIFER: Language Universal Space Integration for Enhanced Multilingual Embeddings with Large Language Models [89.13128402847943]
LUSIFERは,LLMをベースとした多言語タスクの埋め込みモデルに,多言語監視を必要とせずに適用可能なゼロショット方式である。
LUSIFERのアーキテクチャは多言語エンコーダを組み、言語ユニバーサル学習者として機能し、埋め込み固有のタスクに最適化されたLLMベースの埋め込みモデルと組み合わせている。
5つの主要な埋め込みタスク、123の多様なデータセット、14言語にわたるカバレッジを含む新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-01T15:43:07Z) - Chunk-Distilled Language Modeling [25.238256586953487]
Chunk-Distilled Language Modeling (CD-LM)は、現在の大規模言語モデル(LLM)における2つの課題に対処するテキスト生成のアプローチである。
提案手法は,ディープネットワークベースのLCMと簡単な検索モジュールを組み合わせることで,単一のデコードステップでマルチトークンテキストチャンクを生成する。
論文 参考訳(メタデータ) (2024-12-31T08:32:15Z) - Towards Visual Text Design Transfer Across Languages [49.78504488452978]
マルチモーダル・スタイル翻訳(MuST-Bench)の新たな課題について紹介する。
MuST-Benchは、視覚テキスト生成モデルが様々な書き込みシステム間で翻訳を行う能力を評価するために設計されたベンチマークである。
そこで我々は,スタイル記述の必要性を解消する多モーダルなスタイル翻訳フレームワークであるSIGILを紹介した。
論文 参考訳(メタデータ) (2024-10-24T15:15:01Z) - Are Large Language Models Actually Good at Text Style Transfer? [0.17751300245073598]
テキストスタイル転送(TST)を用いた大規模言語モデル(LLM)の性能解析を行う。
TSTは、中核的な内容を保持しながら、テキストの言語スタイルを変更することを含む。
我々は、ゼロショットと少数ショットのプロンプトと、公開されているデータセットに対するパラメータ効率の微調整を用いて、事前訓練されたLLMの能力を評価する。
論文 参考訳(メタデータ) (2024-06-09T18:45:41Z) - Dynamic data sampler for cross-language transfer learning in large language models [34.464472766868106]
ChatFlowは、言語間移動に基づく大規模言語モデル(LLM)である。
我々は、LLaMA2モデルを継続的に訓練するために、中国語、英語、並列コーパスを組み合わせています。
実験により,本手法はモデル収束を加速し,優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2024-05-17T08:40:51Z) - PSST: A Benchmark for Evaluation-driven Text Public-Speaking Style Transfer [16.07576878783396]
公的なテキストを公用語に変換することを目的とした,PSST(Public-Speaking Style Transfer)という新しいタスクを導入する。
言語学的観点からの実世界のデータ分析に基礎を置き、公用語のスタイルを重要なサブスタイルに分解する。
そこで本研究では,その特徴を分析し,スタイリングされたテキストの問題点を特定するための,きめ細かい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-14T18:50:51Z) - One-for-All: Towards Universal Domain Translation with a Single StyleGAN [86.33216867136639]
視覚的に異なる領域間の表現を変換するための新しい翻訳モデルUniTranslatorを提案する。
提案したUniTranslatorは汎用的で、スタイルミキシング、スタイリゼーション、翻訳など様々なタスクを実行できる。
UniTranslatorは、既存の汎用モデルの性能を超越し、代表タスクの特殊モデルに対してよく機能する。
論文 参考訳(メタデータ) (2023-10-22T08:02:55Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。