論文の概要: Beyond IVR Touch-Tones: Customer Intent Routing using LLMs
- arxiv url: http://arxiv.org/abs/2510.21715v1
- Date: Sun, 14 Sep 2025 02:26:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.104433
- Title: Beyond IVR Touch-Tones: Customer Intent Routing using LLMs
- Title(参考訳): IVRタッチトーンを超えて - LLMを使用した顧客インテントルーティング
- Authors: Sergio Rojas-Galeano,
- Abstract要約: 我々はこのギャップに対処する新しいLarge Language Models (LLM) ベースの方法論を提案する。
説明的メニューとフラット化されたパス表現の2つのプロンプト設計をベースおよび拡張データセットで評価する。
その結果、フラット化されたパスは一貫して精度が高く、ベースデータセットでは89.13%に達し、記述形式では81.30%に達した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Widespread frustration with rigid touch-tone Interactive Voice Response (IVR) systems for customer service underscores the need for more direct and intuitive language interaction. While speech technologies are necessary, the key challenge lies in routing intents from user phrasings to IVR menu paths, a task where Large Language Models (LLMs) show strong potential. Progress, however, is limited by data scarcity, as real IVR structures and interactions are often proprietary. We present a novel LLM-based methodology to address this gap. Using three distinct models, we synthesized a realistic 23-node IVR structure, generated 920 user intents (230 base and 690 augmented), and performed the routing task. We evaluate two prompt designs: descriptive hierarchical menus and flattened path representations, across both base and augmented datasets. Results show that flattened paths consistently yield higher accuracy, reaching 89.13% on the base dataset compared to 81.30% with the descriptive format, while augmentation introduces linguistic noise that slightly reduces performance. Confusion matrix analysis further suggests that low-performing routes may reflect not only model limitations but also redundancies in menu design. Overall, our findings demonstrate proof-of-concept that LLMs can enable IVR routing through a smoother, more seamless user experience -- moving customer service one step ahead of touch-tone menus.
- Abstract(参考訳): カスタマーサービスのための厳密なタッチトーン対話音声応答(IVR)システムによる広範なフラストレーションは、よりダイレクトで直感的な言語インタラクションの必要性を浮き彫りにする。
音声技術は不可欠だが、大きな言語モデル(LLM)が強い可能性を示すタスクである、ユーザフレーズからIVRメニューパスへのルーティングインテントが重要な課題である。
しかし、実際のIVR構造やインタラクションはしばしばプロプライエタリであるため、データの不足によって進歩は制限される。
本稿では,このギャップに対処する新しいLCM手法を提案する。
3つの異なるモデルを用いて、現実的な23ノードIVR構造を合成し、920個のユーザ意図(230塩基と690拡張)を生成し、ルーティングタスクを実行した。
記述的階層的メニューとフラット化された経路表現の2つのプロンプト設計を,ベースおよび拡張データセットの両方にわたって評価した。
その結果、フラット化されたパスは一貫して精度が向上し、ベースデータセットでは89.13%に達し、記述形式では81.30%となった。
コンフュージョン行列解析により、低性能経路はモデル制約だけでなく、メニューデザインの冗長性も反映している可能性が示唆された。
全体的には、LLMがよりスムーズでシームレスなユーザエクスペリエンスを通じて、IVRルーティングを可能にするという概念実証が、ユーザサービスをタッチトーンメニューに一歩前進させる、という証拠を示しています。
関連論文リスト
- Achieving Effective Virtual Reality Interactions via Acoustic Gesture Recognition based on Large Language Models [11.630591232366255]
視覚に基づくジェスチャー認識は、高い計算コスト、照明条件への感受性、プライバシー漏洩の懸念に悩まされている。
難聴の高周波信号を出力し反射を捉え、チャネルインパルス応答(CIR)を符号化することで、ジェスチャーが音場を低コストでユーザ透明な方法で摂動する方法を符号化する。
本稿では,VR/ARシステムにおけるCIRに基づくジェスチャー認識のための大規模言語モデル(LLM)を利用する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-10T13:19:58Z) - One Battle After Another: Probing LLMs' Limits on Multi-Turn Instruction Following with a Benchmark Evolving Framework [51.50565654314582]
大規模言語モデルは、複数のトピックにまたがる対話を通して、ユーザの指示に従うことができる。
既存のベンチマークは、しばしば一定回数のターンに制限されるため、飽和の影響を受けにくく、ユーザのインタラクティブなエクスペリエンスを考慮できない。
マルチターン命令追従能力を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-05T14:39:59Z) - Dspy-based Neural-Symbolic Pipeline to Enhance Spatial Reasoning in LLMs [29.735465300269993]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な能力を示してきたが、しばしば空間的推論に苦しむ。
本稿では LLM と Answer Set Programming (ASP) の反復的フィードバックにより LLM の空間推論能力を高める新しいニューラルシンボリックフレームワークを提案する。
我々は、StepGameとSparQAという2つのベンチマークデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2024-11-27T18:04:05Z) - Large Language Models are Strong Audio-Visual Speech Recognition Learners [53.142635674428874]
マルチモーダル・大規模言語モデル(MLLM)は,近年,多モーダル理解能力の強化により,研究の焦点となっている。
本稿では,Llama-AVSRを提案する。
我々は,最大公的なAVSRベンチマークであるLSS3に対する提案手法を評価し,WERが0.79%,AVSRが0.77%であるASRとAVSRのタスクに対して,新しい最先端の結果が得られることを示した。
論文 参考訳(メタデータ) (2024-09-18T21:17:27Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - A Multimodal Approach to Device-Directed Speech Detection with Large Language Models [41.37311266840156]
我々は、ユーザが各コマンドをトリガーフレーズで開始しなければならないという要求を省くことが可能かどうかを探る。
音声波形から得られた音響情報のみを用いて分類器を訓練する。
本研究では,1-best仮説などの自動音声認識システムのデコーダ出力を,大規模言語モデルへの入力特徴とみなす。
論文 参考訳(メタデータ) (2024-03-21T14:44:03Z) - INTERS: Unlocking the Power of Large Language Models in Search with Instruction Tuning [59.07490387145391]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて印象的な機能を示している。
情報検索(IR)タスクへのそれらの適用は、自然言語における多くのIR固有の概念の頻繁な発生のため、いまだに困難である。
我々は,3つの基本IRカテゴリにまたがる20のタスクを含む新しいインストラクションチューニングデータセット InterS を導入する。
論文 参考訳(メタデータ) (2024-01-12T12:10:28Z) - Towards Unified Token Learning for Vision-Language Tracking [65.96561538356315]
本稿では,VL追跡をトークン生成タスクとして用いた「textbfMMTrack」という,視覚言語(VL)追跡パイプラインを提案する。
提案フレームワークは,言語記述と境界ボックスを離散トークン列にシリアライズする。
この新しい設計パラダイムでは、全てのトークンクエリが望ましいターゲットを認識し、ターゲットの空間座標を直接予測するために必要となる。
論文 参考訳(メタデータ) (2023-08-27T13:17:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。