論文の概要: A Multi-Stage Workflow for the Review of Marketing Content with Reasoning Large Language Models
- arxiv url: http://arxiv.org/abs/2601.06054v1
- Date: Fri, 19 Dec 2025 19:40:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.597295
- Title: A Multi-Stage Workflow for the Review of Marketing Content with Reasoning Large Language Models
- Title(参考訳): 大規模言語モデルに基づくマーケティングコンテンツレビューのための多段階ワークフロー
- Authors: Alberto Purpura, Emily Chen, Swapnil Shinde,
- Abstract要約: Reasoning Large Language Models (LLM) は、複雑な問題を解決するタスクにおいて、有望な結果を示している。
マーケティングコンテンツのレビュープロセスを支援するために, 微調整推論 LLM の機能を活用する多段階ワークフローを提案し, 評価する。
- 参考スコア(独自算出の注目度): 1.705490308161302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning Large Language Models (LLMs) have shown promising results when tasked with solving complex problems. In this paper, we propose and evaluate a multi-stage workflow that leverages the capabilities of fine-tuned reasoning LLMs to assist in the review process of marketing content, making sure they comply with a given list of requirements. The contributions of this paper are the following: (i) we present a novel approach -- that does not rely on any external knowledge representation -- for the automatic identification of compliance issues in textual content; (ii) compare the effectiveness of different fine-tuning strategies like Supervised Fine-Tuning (SFT) and Group Relative Policy Optimization (GRPO) in training models to solve this problem; (iii) we evaluate the effectiveness of training small LLMs to generate reasoning tokens before providing their final response; (iv) we evaluate how the choice and combinations of different reward functions affects the performance of a model trained with GRPO.
- Abstract(参考訳): Reasoning Large Language Models (LLM) は、複雑な問題を解決するタスクにおいて、有望な結果を示している。
本稿では,LLMを微調整してマーケティングコンテンツのレビュープロセスを支援する多段階ワークフローを提案する。
本論文の貢献は以下のとおりである。
(i)テキストコンテンツにおけるコンプライアンス問題の自動識別のための新しいアプローチ(外部知識表現に依存しない)を提案する。
(II)この問題を解決するためのトレーニングモデルにおいて、スーパーバイザード・ファインチューニング(SFT)やグループ相対政策最適化(GRPO)のような様々な微調整戦略の有効性を比較する。
第三報) 最終応答を示す前に, 小さなLCMを学習して推論トークンを生成する方法の有効性を評価する。
報奨関数の選択と組み合わせがGRPOで訓練したモデルの性能にどのように影響するかを評価する。
関連論文リスト
- Reasoning with Preference Constraints: A Benchmark for Language Models in Many-to-One Matching Markets [13.111181135818184]
大規模言語モデル (LLM) は、最適化を含む複雑な数学的タスクにおいて強い性能を示している。
優先的かつ構造的な制約の下で推論を必要とする問題にLLMを適用することは、まだ未定である。
我々は,大学入学問題の369件の新たなベンチマークを用いて,実用性,安定性,最適性といった重要な次元にわたるLSMを評価する。
論文 参考訳(メタデータ) (2025-09-16T14:48:46Z) - Learning to Refine: Self-Refinement of Parallel Reasoning in LLMs [102.48588475875749]
本稿では,新しい並列テスト時間スケーリングフレームワークであるGenerative Self-Refinement (GSR)を紹介する。
GSRは一連の候補応答を並列に生成し、その後自己精製を行い、新しい優れた解を合成する。
提案手法は,5つの数学ベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2025-08-27T06:51:48Z) - Fine-Tuning Large Vision-Language Models as Decision-Making Agents via Reinforcement Learning [79.38140606606126]
強化学習(RL)を用いた視覚言語モデル(VLM)を微調整するアルゴリズムフレームワークを提案する。
我々のフレームワークはタスク記述を提供し、次にVLMにチェーン・オブ・シント(CoT)推論を生成するよう促す。
提案手法は,VLMエージェントの様々なタスクにおける意思決定能力を向上させる。
論文 参考訳(メタデータ) (2024-05-16T17:50:19Z) - A Survey on Efficient Inference for Large Language Models [25.572035747669275]
大きな言語モデル(LLM)は、様々なタスクにまたがる顕著なパフォーマンスのために、広く注目を集めている。
LLM推論のかなりの計算とメモリ要件は、リソース制約のあるシナリオへの展開に困難をもたらす。
本稿では,LLMの効率的な推論について,既存の文献を包括的に調査する。
論文 参考訳(メタデータ) (2024-04-22T15:53:08Z) - A Practical Survey on Zero-shot Prompt Design for In-context Learning [0.0]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクを大幅に改善した。
本稿では,異なる種類のプロンプトに着目した,コンテキスト内学習手法の総合的なレビューを行う。
本稿では,手動設計や最適化アルゴリズム,評価手法など,設計を促すための様々なアプローチについて検討する。
論文 参考訳(メタデータ) (2023-09-22T23:00:34Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。