論文の概要: End-Cloud Collaboration Framework for Advanced AI Customer Service in E-commerce
- arxiv url: http://arxiv.org/abs/2410.07122v1
- Date: Fri, 20 Sep 2024 13:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 22:17:22.788567
- Title: End-Cloud Collaboration Framework for Advanced AI Customer Service in E-commerce
- Title(参考訳): Eコマースにおける高度なAI顧客サービスのためのエンドクラウドコラボレーションフレームワーク
- Authors: Liangyu Teng, Yang Liu, Jing Liu, Liang Song,
- Abstract要約: 近年、eコマース業界は、高度なAI駆動のカスタマーサービスソリューションに対する需要が急増している。
従来のクラウドベースのモデルは、レイテンシ、パーソナライズされたサービス、プライバシの懸念といった面で制限に直面しています。
我々は,eコマースにおける高度なAIカスタマーサービスのための革新的なエンドクラウドコラボレーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.443070269390871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the e-commerce industry has seen a rapid increase in the demand for advanced AI-driven customer service solutions. Traditional cloud-based models face limitations in terms of latency, personalized services, and privacy concerns. Furthermore, end devices often lack the computational resources to deploy large AI models effectively. In this paper, we propose an innovative End-Cloud Collaboration (ECC) framework for advanced AI customer service in e-commerce. This framework integrates the advantages of large cloud models and mid/small-sized end models by deeply exploring the generalization potential of cloud models and effectively utilizing the computing power resources of terminal chips, alleviating the strain on computing resources to some extent. Specifically, the large cloud model acts as a teacher, guiding and promoting the learning of the end model, which significantly reduces the end model's reliance on large-scale, high-quality data and thereby addresses the data bottleneck in traditional end model training, offering a new paradigm for the rapid deployment of industry applications. Additionally, we introduce an online evolutive learning strategy that enables the end model to continuously iterate and upgrade based on guidance from the cloud model and real-time user feedback. This strategy ensures that the model can flexibly adapt to the rapid changes in application scenarios while avoiding the uploading of sensitive information by performing local fine-tuning, achieving the dual goals of privacy protection and personalized service. %We make systematic contributions to the customized model fine-tuning methods in the e-commerce domain. To conclude, we implement in-depth corpus collection (e.g., data organization, cleaning, and preprocessing) and train an ECC-based industry-specific model for e-commerce customer service.
- Abstract(参考訳): 近年、eコマース業界は、高度なAI駆動のカスタマーサービスソリューションに対する需要が急増している。
従来のクラウドベースのモデルは、レイテンシ、パーソナライズされたサービス、プライバシの懸念といった面で制限に直面しています。
さらに、エンドデバイスは大きなAIモデルを効果的に展開するための計算資源を欠いていることが多い。
本稿では,eコマースにおける高度なAI顧客サービスのための革新的なエンドクラウドコラボレーション(ECC)フレームワークを提案する。
このフレームワークは、クラウドモデルの一般化ポテンシャルを深く探求し、端末チップのコンピューティングパワーリソースを効果的に活用することにより、大規模クラウドモデルと中小エンドモデルの利点をある程度緩和する。
具体的には、大規模なクラウドモデルは、教師として機能し、エンドモデルの学習を指導し、促進することで、エンドモデルの大規模で高品質なデータへの依存を著しく減らし、従来のエンドモデルのトレーニングにおけるデータボトルネックに対処し、業界アプリケーションの迅速な展開のための新しいパラダイムを提供する。
さらに,クラウドモデルからのガイダンスとリアルタイムユーザフィードバックに基づいて,エンドモデルを継続的にイテレーションし,アップグレードすることが可能なオンライン・エボリューティブ・ラーニング・ストラテジーを導入する。
この戦略は、局所的な微調整を行い、プライバシ保護とパーソナライズされたサービスという2つの目標を達成することによって、センシティブな情報のアップロードを回避しながら、モデルがアプリケーションシナリオの迅速な変更に柔軟に対応できることを保証する。
% 電子商取引分野におけるカスタマイズされたモデル微調整手法に体系的な貢献をする。
結論として、我々は、詳細なコーパス収集(例えば、データ組織、クリーニング、前処理)を実装し、ECCベースのeコマース顧客サービスの業界特化モデルを訓練する。
関連論文リスト
- KModels: Unlocking AI for Business Applications [10.833754921830154]
本稿では、KModelのアーキテクチャと、それを形作る重要な決定について述べる。
KModelsにより、AI消費者は専用のデータサイエンティストの必要性を排除できる。
オンプレミスのデプロイメントに非常に適しているが、クラウド環境でも使用できる。
論文 参考訳(メタデータ) (2024-09-08T13:19:12Z) - Federated Knowledge Transfer Fine-tuning Large Server Model with Resource-Constrained IoT Clients [10.305544603479163]
我々は、モノのインターネットにおける大規模モデルのトレーニングを促進するために、KoALA(Federated Knowledge Transfer Fine-tuning Large Server Model with Resource-Constrained IoT Clients)を提案する。
フェデレートされた学習と知識の蒸留を利用して、小さなモデルとのコラボレーションを通じて大きなモデルを更新する。
また,本手法は,類似のトレーニング性能を実現するだけでなく,ローカルストレージやコンピュータパワーリソースの必要性を著しく低減する。
論文 参考訳(メタデータ) (2024-07-07T05:46:01Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - Enhancing One-Shot Federated Learning Through Data and Ensemble
Co-Boosting [76.64235084279292]
ワンショットフェデレートラーニング(One-shot Federated Learning, OFL)は,単一のコミュニケーションラウンドを通じてグローバルサーバモデルのトレーニングを可能にする,有望な学習パラダイムである。
合成されたデータとアンサンブルモデルを相互に拡張する新しいフレームワークであるCo-Boostingを導入する。
論文 参考訳(メタデータ) (2024-02-23T03:15:10Z) - ECLM: Efficient Edge-Cloud Collaborative Learning with Continuous
Environment Adaptation [47.35179593006409]
動的エッジ環境に対する高速モデル適応のためのエッジクラウド協調学習フレームワークECLMを提案する。
その結果,ECLM はモデルの性能(例えば 18.89% の精度向上)と資源効率(例えば 7.12 倍の通信コスト削減)を,動的エッジ環境への適応において著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-18T14:10:09Z) - INTERN: A New Learning Paradigm Towards General Vision [117.3343347061931]
我々はInterNという新しい学習パラダイムを開発した。
複数の段階の複数のソースからの監視信号を用いて学習することにより、トレーニング対象のモデルは強力な一般化性を生み出す。
ほとんどの場合、ターゲットドメインのトレーニングデータの10%しか適応していないモデルが、完全なデータセットでトレーニングされたトレーニングデータよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T18:42:50Z) - FedGEMS: Federated Learning of Larger Server Models via Selective
Knowledge Fusion [19.86388925556209]
フェデレートラーニング(FL)は、データをプライベートに保ちながらグローバルモデルを学ぶための実行可能なソリューションとして登場した。
本研究では,FLのモデル容量を突破する強力なサーバモデルを活用するための新しいパラダイムについて検討する。
論文 参考訳(メタデータ) (2021-10-21T10:06:44Z) - Personalized Retrogress-Resilient Framework for Real-World Medical
Federated Learning [8.240098954377794]
本稿では,各クライアントに対して優れたパーソナライズモデルを生成するために,パーソナライズされた回帰耐性フレームワークを提案する。
実世界の皮膚内視鏡的FLデータセットに関する実験により、我々のパーソナライズされた回帰抵抗性フレームワークが最先端のFL手法より優れていることが証明された。
論文 参考訳(メタデータ) (2021-10-01T13:24:29Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - Device-Cloud Collaborative Learning for Recommendation [50.01289274123047]
集中型クラウドモデルにより「数千人のモデルを持つ何千人もの人」を効率的に実現する新しいMetaPatch学習手法をデバイス側で提案します。
数十億の更新されたパーソナライズされたデバイスモデルにより、集中型クラウドモデルを更新する"モデルオーバーモデル"蒸留アルゴリズム、すなわちMoMoDistillを提案する。
論文 参考訳(メタデータ) (2021-04-14T05:06:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。