論文の概要: OlaMind: Towards Human-Like and Hallucination-Safe Customer Service for Retrieval-Augmented Dialogue
- arxiv url: http://arxiv.org/abs/2510.22143v1
- Date: Sat, 25 Oct 2025 03:29:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.836673
- Title: OlaMind: Towards Human-Like and Hallucination-Safe Customer Service for Retrieval-Augmented Dialogue
- Title(参考訳): OlaMind: 検索機能強化対話のためのヒューマンライクでハロシン化の安全な顧客サービスを目指して
- Authors: Tianhong Gao, Jundong Shen, Bei Shi, Jiapeng Wang, Ying Ju, Junfeng Yao, Jiao Ran, Yong Zhang, Lin Dong, Huiyu Yu, Tingting Ye,
- Abstract要約: OlaMindは人型で幻覚に敏感な対話用フレームワークである。
本手法は,幻覚やビジネス上の重要なリスクを効果的に軽減しつつ,人間の類似性と自然性を著しく向上させる。
- 参考スコア(独自算出の注目度): 24.141708335708387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent customer service (ICS) systems via retrieval-augmented generation (RAG) have been widely adopted in Web-based domains such as social platforms and e-commerce, achieving remarkable improvements in automation and efficiency. However, notable limitations still remain: these systems are prone to hallucinations and often generate rigid, mechanical responses, which can introduce business risks and undermine user experience, especially in Web-based customer service interactions under the RAG scenarios. In this paper, we introduce OlaMind, a human-like and hallucination-safe customer service framework for retrieval-augmented dialogue. Specifically, it first leverages a Learn-to-Think stage to learn the reasoning processes and response strategies from human experts, and then employs a Learn-to-Respond stage to perform cold-start supervised fine-tuning (SFT) combined with reinforcement learning (RL) for basic-to-hard self-refinement. Our method significantly enhances human-likeness and naturalness while effectively mitigating hallucinations and critical business risks. We have conducted large-scale online A/B experiments in an industry-level social customer service setting, and extensive experimental results show that OlaMind achieves significant cumulative relative improvements with intelligent resolution rates +28.92%/+18.42% and human takeover rate -6.08%/-7.12% in community-support/livestream-interaction scenarios, respectively, which highlights its consistent effectiveness across diverse real-world applications. The code and data will be publicly available.
- Abstract(参考訳): 検索強化世代(RAG)によるインテリジェント顧客サービス(ICS)システムは、ソーシャルプラットフォームやeコマースといったWebベースのドメインで広く採用されており、自動化と効率の大幅な改善が達成されている。
しかし、これらのシステムは幻覚を起こす傾向があり、しばしば堅固で機械的な応答を生成し、特にRAGシナリオ下でのWebベースの顧客サービスインタラクションにおいて、ビジネス上のリスクを導入し、ユーザエクスペリエンスを損なう可能性がある。
本稿では,人型・幻覚安全な顧客サービスフレームワークであるOlaMindについて紹介する。
具体的には、まずラーニング・トゥ・シンク(Learning-to-Think)ステージを利用して、人間の専門家から推論プロセスと応答戦略を学び、その後、ラーニング・トゥ・レスポンド(Learning-to-Respond)ステージを使用して、冷間開始監視微調整(SFT)と強化学習(Regress-to-Think)を組み合わせる。
本手法は,幻覚やビジネス上の重要なリスクを効果的に軽減しつつ,人間の類似性と自然性を著しく向上させる。
我々は、業界レベルのソーシャルカスタマーサービス環境で大規模なオンラインA/B実験を実施し、OlaMindが知的解決率+28.92%/+18.42%、人間による乗っ取り率-6.08%/-7.12%で大幅に累積的な相対的な改善を達成していることを示す。
コードとデータは公開されます。
関連論文リスト
- Higher Satisfaction, Lower Cost: A Technical Report on How LLMs Revolutionize Meituan's Intelligent Interaction Systems [67.18731675163589]
本稿では,産業アプリケーションに適したインテリジェントインタラクションシステムであるWOWServiceを紹介する。
LLMとマルチエージェントアーキテクチャの統合により、WOWServiceは自律的なタスク管理と協調的な問題解決を可能にします。
WOWServiceはMeituan App上にデプロイされ、主要なメトリクスの大幅な向上を実現している。
論文 参考訳(メタデータ) (2025-10-15T08:35:51Z) - Exploring the Impact of Personality Traits on Conversational Recommender Systems: A Simulation with Large Language Models [70.180385882195]
本稿では,対話型レコメンダシステム(CRS)のためのパーソナリティを考慮したユーザシミュレーションを提案する。
ユーザエージェントはカスタマイズ可能な性格特性と嗜好を誘導し、システムエージェントはCRS内の現実的な相互作用をシミュレートする説得能力を有する。
実験により,現在最先端のLCMは,特定の性格特性に適合した多様なユーザ応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2025-04-09T13:21:17Z) - Reasoning LLMs for User-Aware Multimodal Conversational Agents [3.533721662684487]
社会ロボティクスにおけるパーソナライゼーションは、効果的な人間とロボットの相互作用を促進するために重要である。
本稿では,ユーザ認識型対話エージェントのための新しいフレームワークUSER-LLM R1を提案する。
提案手法では,チェーン・オブ・シンク(CoT)推論モデルを統合し,ユーザの好みや視覚言語モデルを反復的に推測する。
論文 参考訳(メタデータ) (2025-04-02T13:00:17Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Scalable and Safe Remediation of Defective Actions in Self-Learning
Conversational Systems [14.030576576114818]
オフポリティ強化学習は、最先端の対話型AIの原動力となっている。
大規模な商業環境では、ポリシーの改善と継続的な経験のバランスをとることはしばしば困難である。
本稿では,過去のレグレッションインシデントレポートから得られた高精度サンプルをキュレートし,活用する手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T19:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。