論文の概要: Learning When to Quit in Sales Conversations
- arxiv url: http://arxiv.org/abs/2511.01181v1
- Date: Mon, 03 Nov 2025 03:14:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.095719
- Title: Learning When to Quit in Sales Conversations
- Title(参考訳): 営業の会話でいつ学ぶか
- Authors: Emaad Manzoor, Eva Ascarza, Oded Netzer,
- Abstract要約: セールス担当者は、会話を継続するか、あるいは次のリードを追求するためにそれを放棄するかという、動的スクリーニングの決定に直面します。
動的スクリーニング決定を最適な停止問題として定式化し、生成言語モデルに基づく逐次決定エージェントを開発する。
提案手法は,高次元テキスト状態の処理,大規模言語モデルへの拡張,オープンソースおよびプロプライエタリ言語モデルの両方で動作する。
- 参考スコア(独自算出の注目度): 0.09558392439655013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Salespeople frequently face the dynamic screening decision of whether to persist in a conversation or abandon it to pursue the next lead. Yet, little is known about how these decisions are made, whether they are efficient, or how to improve them. We study these decisions in the context of high-volume outbound sales where leads are ample, but time is scarce and failure is common. We formalize the dynamic screening decision as an optimal stopping problem and develop a generative language model-based sequential decision agent - a stopping agent - that learns whether and when to quit conversations by imitating a retrospectively-inferred optimal stopping policy. Our approach handles high-dimensional textual states, scales to large language models, and works with both open-source and proprietary language models. When applied to calls from a large European telecommunications firm, our stopping agent reduces the time spent on failed calls by 54% while preserving nearly all sales; reallocating the time saved increases expected sales by up to 37%. Upon examining the linguistic cues that drive salespeople's quitting decisions, we find that they tend to overweight a few salient expressions of consumer disinterest and mispredict call failure risk, suggesting cognitive bounds on their ability to make real-time conversational decisions. Our findings highlight the potential of artificial intelligence algorithms to correct cognitively-bounded human decisions and improve salesforce efficiency.
- Abstract(参考訳): セールス担当者は、会話を継続するか、あるいは次のリードを追求するためにそれを放棄するかという、動的スクリーニングの決定に直面します。
しかし、これらの決定がどのように下されるのか、効率的かどうか、改善の仕方についてはほとんど分かっていない。
これらの決定は、リードが豊富である高ボリュームアウトバウンド販売の文脈で検討するが、時間が少なく、失敗が一般的である。
本研究では,動的スクリーニング決定を最適停止問題として定式化し,時間的に推論された最適停止ポリシーを模倣して会話を終了するか否かを学習する生成言語モデルに基づく逐次決定エージェント(停止エージェント)を開発する。
提案手法は,高次元テキスト状態の処理,大規模言語モデルへの拡張,オープンソースおよびプロプライエタリ言語モデルの両方で動作する。
ヨーロッパの大手通信会社からの電話に適用されると、停止エージェントは、ほとんどすべての販売を保存しながら、失敗した通話に費やした時間を54%削減します。
営業担当者の意思決定を中止させる言語的方法を検討すると、消費者の不利な表現を過度に強調し、失敗のリスクを予測し、リアルタイムな会話による意思決定を行う能力に認知的限界が生じる傾向があることが分かる。
我々の研究は、認知に縛られた人間の判断を正し、セールスフォースの効率を向上させる人工知能アルゴリズムの可能性を強調した。
関連論文リスト
- Evaluating Language Model Reasoning about Confidential Information [95.64687778185703]
言語モデルが文脈的堅牢性を示すか、文脈依存型安全仕様に準拠する能力を示すかを検討する。
我々は,ユーザ要求がいつ承認されたか,言語モデルが正しく判断できるかどうかを測定するベンチマーク(PasswordEval)を開発した。
現在のオープンソースとクローズドソースのモデルでは、一見単純な作業に苦労しています。
論文 参考訳(メタデータ) (2025-08-27T15:39:46Z) - Detect, Explain, Escalate: Low-Carbon Dialogue Breakdown Management for LLM-Powered Agents [30.13634341221476]
大規模言語モデル(LLM)は、多くのアプリケーションを変えつつありますが、会話のブレークダウンへの感受性は、ユーザ信頼を損なう重要な課題です。
本稿では,低炭素運転を重視したLDMエージェントの対話分解を管理するためのフレームワーク「Detect, Explain, Escalate」を提案する。
論文 参考訳(メタデータ) (2025-04-26T07:51:05Z) - Silent Abandonment in Text-Based Contact Centers: Identifying, Quantifying, and Mitigating its Operational Impacts [0.5312303275762104]
17社にまたがる顧客の3%から70%が黙秘している。
ある研究では、放棄された顧客の71.3%が黙って、エージェント効率を3.2%、システム容量を15.3%削減した。
我々は,無声放棄行動の疑いやサービス設計の変更を予測し,無声放棄の影響を運用的に緩和する戦略を提案する。
論文 参考訳(メタデータ) (2025-01-15T15:38:56Z) - DebUnc: Improving Large Language Model Agent Communication With Uncertainty Metrics [52.242449026151846]
大規模言語モデル(LLM)の精度向上のためのマルチエージェント論争が紹介されている。
エージェントの信頼性を評価するために不確実性指標を用いた議論フレームワークであるDebUncを提案する。
論文 参考訳(メタデータ) (2024-07-08T22:15:01Z) - Deal, or no deal (or who knows)? Forecasting Uncertainty in
Conversations using Large Language Models [45.41542983671774]
言語モデルは、会話に固有の不確実性を表現するにはどうすればよいか?
本稿では,長期にわたる「会話予測」タスクの拡張であるFortUne Dialを提案する。
言語モデルが結果の不確実性を表わす2つの方法を研究する。
論文 参考訳(メタデータ) (2024-02-05T18:39:47Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Silent Abandonment in Contact Centers: Estimating Customer Patience from Uncertain Data [0.0]
我々は,顧客による静かな放棄がコンタクトセンターに与える影響に焦点をあてる。
顧客は質問に対する回答を待っている間、システムを離れるが、そうする兆候はない。
我々は,チャットとメッセージシステムという2つのタイプのコンタクトセンターにおいて,サイレント・アベンションの顧客を特定する手法を開発した。
論文 参考訳(メタデータ) (2023-04-23T21:43:03Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Inverse Active Sensing: Modeling and Understanding Timely
Decision-Making [111.07204912245841]
我々は,内因性,文脈依存型時間圧下でのエビデンスに基づく意思決定の一般的な設定のための枠組みを開発する。
意思決定戦略において、サプライズ、サスペンス、最適性の直感的な概念をモデル化する方法を実証する。
論文 参考訳(メタデータ) (2020-06-25T02:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。