論文の概要: AI-Salesman: Towards Reliable Large Language Model Driven Telemarketing
- arxiv url: http://arxiv.org/abs/2511.12133v1
- Date: Sat, 15 Nov 2025 09:44:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.629514
- Title: AI-Salesman: Towards Reliable Large Language Model Driven Telemarketing
- Title(参考訳): AI-Salesman: 信頼性の高い大規模言語モデル駆動型テレマーケティングを目指す
- Authors: Qingyu Zhang, Chunlei Xin, Xuanang Chen, Yaojie Lu, Hongyu Lin, Xianpei Han, Le Sun, Qing Ye, Qianlong Xie, Xingxing Wang,
- Abstract要約: 我々はTeleSalesCorpusをリリースした。
次に、デュアルステージアーキテクチャを特徴とする新しいフレームワークであるAI-Salesmanを提案する。
提案したAI-Salesmanは,自動測定と総合的な人的評価の両方において,ベースラインモデルを大幅に上回ることを示す。
- 参考スコア(独自算出の注目度): 79.0112532518727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Goal-driven persuasive dialogue, exemplified by applications like telemarketing, requires sophisticated multi-turn planning and strict factual faithfulness, which remains a significant challenge for even state-of-the-art Large Language Models (LLMs). A lack of task-specific data often limits previous works, and direct LLM application suffers from strategic brittleness and factual hallucination. In this paper, we first construct and release TeleSalesCorpus, the first real-world-grounded dialogue dataset for this domain. We then propose AI-Salesman, a novel framework featuring a dual-stage architecture. For the training stage, we design a Bayesian-supervised reinforcement learning algorithm that learns robust sales strategies from noisy dialogues. For the inference stage, we introduce the Dynamic Outline-Guided Agent (DOGA), which leverages a pre-built script library to provide dynamic, turn-by-turn strategic guidance. Moreover, we design a comprehensive evaluation framework that combines fine-grained metrics for key sales skills with the LLM-as-a-Judge paradigm. Experimental results demonstrate that our proposed AI-Salesman significantly outperforms baseline models in both automatic metrics and comprehensive human evaluations, showcasing its effectiveness in complex persuasive scenarios.
- Abstract(参考訳): 遠隔マーケティングのようなアプリケーションで実証されたゴール駆動型説得対話は、洗練されたマルチターン計画と厳密な事実忠実性を必要とし、これは最先端の大規模言語モデル(LLM)においても重要な課題である。
タスク固有のデータがないため、以前の作業は制限されることが多く、直接LLMアプリケーションは戦略上の不安定さと事実の幻覚に悩まされる。
本稿では,この領域における最初の実世界の対話データセットであるTeleSalesCorpusを構築し,リリースする。
次に、デュアルステージアーキテクチャを特徴とする新しいフレームワークであるAI-Salesmanを提案する。
トレーニング段階において、ノイズの多い対話からロバストな販売戦略を学習するベイズ指導型強化学習アルゴリズムを設計する。
推論の段階では、動的アウトラインガイドエージェント(DOGA)を導入し、事前に構築されたスクリプトライブラリを活用して、動的でターンバイターンな戦略ガイダンスを提供する。
さらに、キーセールススキルの詳細な指標とLCM-as-a-Judgeパラダイムを組み合わせた総合的な評価フレームワークを設計する。
実験の結果,提案したAI-Salesmanは,自動測定と包括的評価の両方において,ベースラインモデルよりも有意に優れており,複雑な説得シナリオにおける有効性を示している。
関連論文リスト
- Grounded in Reality: Learning and Deploying Proactive LLM from Offline Logs [72.08224879435762]
textttLearn-to-Askは、プロアクティブな対話エージェントの学習とデプロイのためのシミュレータフリーフレームワークである。
当社のアプローチは,LLMの大規模オンラインAIサービスへの展開を成功に導くものです。
論文 参考訳(メタデータ) (2025-10-29T12:08:07Z) - SFR-DeepResearch: Towards Effective Reinforcement Learning for Autonomously Reasoning Single Agents [93.26456498576181]
本稿では,ディープリサーチのためのネイティブ自律単エージェントモデルの開発に焦点をあてる。
我々の最良の変種であるSFR-DR-20Bは、HumanityのLast Examベンチマークで28.7%に達する。
論文 参考訳(メタデータ) (2025-09-08T02:07:09Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Making Task-Oriented Dialogue Datasets More Natural by Synthetically Generating Indirect User Requests [6.33281463741573]
間接ユーザ要求(IUR)は、ヒューマン・ヒューマン・タスク指向の対話において一般的であり、聞き手からの世界的知識と実践的推論を必要とする。
大きな言語モデル(LLM)はこれらの要求を効果的に処理できるが、仮想アシスタントにデプロイされる小さなモデルはリソースの制約のためにしばしば苦労する。
論文 参考訳(メタデータ) (2024-06-12T01:18:04Z) - From LLM to Conversational Agent: A Memory Enhanced Architecture with
Fine-Tuning of Large Language Models [11.999652715036643]
RAISE(Reasoning and Acting through Scratchpad and Examples)は、LLM(Large Language Models)を対話エージェントに統合する高度なアーキテクチャである。
会話の文脈と連続性を維持するために、人間の短期記憶と長期記憶をミラーリングするデュアルコンポーネントメモリシステムを備えている。
論文 参考訳(メタデータ) (2024-01-05T12:26:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。