論文の概要: CAT-LLM: Prompting Large Language Models with Text Style Definition for
Chinese Article-style Transfer
- arxiv url: http://arxiv.org/abs/2401.05707v1
- Date: Thu, 11 Jan 2024 07:18:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 19:35:49.893022
- Title: CAT-LLM: Prompting Large Language Models with Text Style Definition for
Chinese Article-style Transfer
- Title(参考訳): CAT-LLM:中国語記事転送のためのテキストスタイル定義による大規模言語モデルの提案
- Authors: Zhen Tao, Dinghao Xi, Zhiyu Li, Liumin Tang, Wei Xu
- Abstract要約: CAT-LLM には、記事中のテキストの特徴を包括的に分析することを目的とした、bespoke, pluggable Text Style Definition (TSD) モジュールが組み込まれている。
TSDモジュールは一連の機械学習アルゴリズムを統合し、単語と文のレベルから記事スタイルを分析する。
異なるスタイルの5つの中国語記事を選択し、ChatGPTを用いて5つの並列データセットを作成する。
- 参考スコア(独自算出の注目度): 10.027843402296678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text style transfer is increasingly prominent in online entertainment and
social media. However, existing research mainly concentrates on style transfer
within individual English sentences, while ignoring the complexity of long
Chinese texts, which limits the wider applicability of style transfer in
digital media realm. To bridge this gap, we propose a Chinese Article-style
Transfer framework (CAT-LLM), leveraging the capabilities of Large Language
Models (LLMs). CAT-LLM incorporates a bespoke, pluggable Text Style Definition
(TSD) module aimed at comprehensively analyzing text features in articles,
prompting LLMs to efficiently transfer Chinese article-style. The TSD module
integrates a series of machine learning algorithms to analyze article-style
from both words and sentences levels, thereby aiding LLMs thoroughly grasp the
target style without compromising the integrity of the original text. In
addition, this module supports dynamic expansion of internal style trees,
showcasing robust compatibility and allowing flexible optimization in
subsequent research. Moreover, we select five Chinese articles with distinct
styles and create five parallel datasets using ChatGPT, enhancing the models'
performance evaluation accuracy and establishing a novel paradigm for
evaluating subsequent research on article-style transfer. Extensive
experimental results affirm that CAT-LLM outperforms current research in terms
of transfer accuracy and content preservation, and has remarkable applicability
to various types of LLMs.
- Abstract(参考訳): オンラインエンタテインメントやソーシャルメディアではテキストスタイル転送が注目されている。
しかし、既存の研究は主に個々の英文におけるスタイル転送に集中しているが、長文の複雑さは無視され、デジタルメディア分野におけるスタイル転送のより広い適用性が制限されている。
このギャップを埋めるために,大言語モデル(LLM)の能力を活用した中国語記事スタイル転送フレームワーク(CAT-LLM)を提案する。
CAT-LLMには、記事中のテキストの特徴を包括的に分析することを目的とした、スポークでプラグイン可能なテキストスタイル定義(TSD)モジュールが組み込まれている。
TSDモジュールは、一連の機械学習アルゴリズムを統合して、単語と文のレベルから記事スタイルを分析することにより、LLMが元のテキストの完全性を損なうことなく、ターゲットスタイルを徹底的に把握できるようにする。
さらに、このモジュールは内部スタイルツリーの動的拡張をサポートし、堅牢な互換性を示し、その後の研究で柔軟な最適化を可能にする。
さらに,異なるスタイルを持つ5つの中国語記事を選択し,chatgptを用いて5つの並列データセットを作成し,モデルの性能評価精度を高め,その後の研究成果を評価するための新しいパラダイムを確立した。
CAT-LLMは転送精度とコンテンツ保存の点で現在の研究よりも優れており,様々な種類のLCMに適用可能であることが確認された。
関連論文リスト
- Align-SLM: Textless Spoken Language Models with Reinforcement Learning from AI Feedback [50.84142264245052]
テキストレス音声言語モデル(SLM)のセマンティック理解を強化するためのAlign-SLMフレームワークを導入する。
提案手法は、与えられたプロンプトから複数の音声継続を生成し、意味的指標を用いて、直接選好最適化(DPO)のための選好データを生成する。
語彙および構文モデリングのためのZeroSpeech 2021ベンチマーク、意味的コヒーレンスのためのStoryClozeデータセットの音声バージョン、GPT4-oスコアや人間評価などの音声生成指標を用いて、フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-11-04T06:07:53Z) - Towards Visual Text Design Transfer Across Languages [49.78504488452978]
マルチモーダル・スタイル翻訳(MuST-Bench)の新たな課題について紹介する。
MuST-Benchは、視覚テキスト生成モデルが様々な書き込みシステム間で翻訳を行う能力を評価するために設計されたベンチマークである。
そこで我々は,スタイル記述の必要性を解消する多モーダルなスタイル翻訳フレームワークであるSIGILを紹介した。
論文 参考訳(メタデータ) (2024-10-24T15:15:01Z) - AnyTrans: Translate AnyText in the Image with Large Scale Models [88.5887934499388]
本稿では、画像中のタスク翻訳AnyText(TATI)のためのオール・エンコンパス・フレームワークであるAnyTransを紹介する。
我々のフレームワークは、翻訳中にテキスト要素と視覚要素の両方から文脈的手がかりを取り入れている。
6つの言語対の多言語テキスト画像翻訳データからなるMTIT6というテストデータセットを精巧にコンパイルした。
論文 参考訳(メタデータ) (2024-06-17T11:37:48Z) - CUDRT: Benchmarking the Detection Models of Human vs. Large Language Models Generated Texts [9.682499180341273]
大規模言語モデル(LLM)は、産業全体にわたってテキスト生成を大幅に強化した。
彼らの人間的なアウトプットは、人間とAIの作者の区別を困難にしている。
現在のベンチマークは主に静的データセットに依存しており、モデルベースの検出器の評価の有効性を制限している。
論文 参考訳(メタデータ) (2024-06-13T12:43:40Z) - Are Large Language Models Actually Good at Text Style Transfer? [0.17751300245073598]
テキストスタイル転送(TST)を用いた大規模言語モデル(LLM)の性能解析を行う。
TSTは、中核的な内容を保持しながら、テキストの言語スタイルを変更することを含む。
我々は、ゼロショットと少数ショットのプロンプトと、公開されているデータセットに対するパラメータ効率の微調整を用いて、事前訓練されたLLMの能力を評価する。
論文 参考訳(メタデータ) (2024-06-09T18:45:41Z) - Dynamic data sampler for cross-language transfer learning in large language models [34.464472766868106]
ChatFlowは、言語間移動に基づく大規模言語モデル(LLM)である。
我々は、LLaMA2モデルを継続的に訓練するために、中国語、英語、並列コーパスを組み合わせています。
実験により,本手法はモデル収束を加速し,優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2024-05-17T08:40:51Z) - PSST: A Benchmark for Evaluation-driven Text Public-Speaking Style Transfer [16.07576878783396]
公的なテキストを公用語に変換することを目的とした,PSST(Public-Speaking Style Transfer)という新しいタスクを導入する。
言語学的観点からの実世界のデータ分析に基礎を置き、公用語のスタイルを重要なサブスタイルに分解する。
そこで本研究では,その特徴を分析し,スタイリングされたテキストの問題点を特定するための,きめ細かい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-14T18:50:51Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。