論文の概要: Neural model robustness for skill routing in large-scale conversational
AI systems: A design choice exploration
- arxiv url: http://arxiv.org/abs/2103.03373v1
- Date: Thu, 4 Mar 2021 22:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 15:07:43.491863
- Title: Neural model robustness for skill routing in large-scale conversational
AI systems: A design choice exploration
- Title(参考訳): 大規模対話型AIシステムにおけるスキルルーティングのためのニューラルモデルロバストネス--設計選択探索
- Authors: Han Li, Sunghyun Park, Aswarth Dara, Jinseok Nam, Sungjin Lee,
Young-Bum Kim, Spyros Matsoukas, Ruhi Sarikaya
- Abstract要約: 最先端の商用対話型AIシステムにおけるスキルルーティングのコンテキストにおいて、モデリング設計の異なる選択がモデル堅牢性にどのように影響するかを示す。
データ拡張を適用することは、モデルロバスト性を大幅に改善する非常に効果的で実用的な方法であることを示す。
- 参考スコア(独自算出の注目度): 34.29393761770914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current state-of-the-art large-scale conversational AI or intelligent digital
assistant systems in industry comprises a set of components such as Automatic
Speech Recognition (ASR) and Natural Language Understanding (NLU). For some of
these systems that leverage a shared NLU ontology (e.g., a centralized
intent/slot schema), there exists a separate skill routing component to
correctly route a request to an appropriate skill, which is either a
first-party or third-party application that actually executes on a user
request. The skill routing component is needed as there are thousands of skills
that can either subscribe to the same intent and/or subscribe to an intent
under specific contextual conditions (e.g., device has a screen). Ensuring
model robustness or resilience in the skill routing component is an important
problem since skills may dynamically change their subscription in the ontology
after the skill routing model has been deployed to production. We show how
different modeling design choices impact the model robustness in the context of
skill routing on a state-of-the-art commercial conversational AI system,
specifically on the choices around data augmentation, model architecture, and
optimization method. We show that applying data augmentation can be a very
effective and practical way to drastically improve model robustness.
- Abstract(参考訳): 産業における最新の大規模対話型AIまたはインテリジェントデジタルアシスタントシステムは、自動音声認識(ASR)や自然言語理解(NLU)などの一連のコンポーネントで構成されています。
共有nluオントロジー(例えば集中型インテント/スロットスキーマ)を利用するシステムでは、リクエストを適切なスキルに正しくルーティングする独立したスキルルーティングコンポーネントが存在します。
スキルルーティングコンポーネントは、同じインテントをサブスクライブしたり、特定のコンテキスト条件下でインテントをサブスクライブする(例えば、デバイスにはスクリーンがある)ことができる何千ものスキルがあるため、必要である。
スキルルーティングモデルが本番環境にデプロイされた後、オントロジーのサブスクリプションを動的に変更する可能性があるため、スキルルーティングコンポーネントにおけるモデルの堅牢性やレジリエンスを保証することが重要な問題である。
本稿では,最新の商用会話型aiシステムにおけるスキルルーティングの文脈におけるモデルロバスト性,特にデータ拡張,モデルアーキテクチャ,最適化方法に関する選択に,異なるモデリング設計選択がどう影響するかを示す。
データ拡張を適用することは、モデルロバスト性を大幅に改善する非常に効果的で実用的な方法であることを示す。
関連論文リスト
- ELICIT: LLM Augmentation via External In-Context Capability [16.237679215248196]
algは2つのモジュールからなるフレームワークで、タスクベクトルを効果的に保存し再利用する。
algは、モデル機能の適応的な適用を可能にするプラグイン・アンド・プレイパフォーマンス・ブースターとして機能する。
論文 参考訳(メタデータ) (2024-10-12T03:19:06Z) - Adaptive Semantic Token Selection for AI-native Goal-oriented Communications [11.92172357956248]
本稿では,AIネイティブな目標指向通信のための新しい設計を提案する。
我々は、帯域幅と計算量に対する動的推論制約の下でトランスフォーマーニューラルネットワークを利用する。
提案手法は,最先端のトークン選択機構よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-25T13:49:50Z) - An Interactive Agent Foundation Model [49.77861810045509]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - SAI: Solving AI Tasks with Systematic Artificial Intelligence in
Communication Network [4.302209772725456]
Systematic Artificial Intelligence(SAI)は、Large Language Models(LLM)とインテントフォーマットベースのインプットを活用することで、AIタスクを解決するために設計されたフレームワークである。
SAIは、通信ネットワークで多数の複雑なAIタスクを完了し、ネットワーク最適化、リソース割り当て、その他の困難なタスクにおいて驚くべき結果を達成することができる。
論文 参考訳(メタデータ) (2023-10-13T12:14:58Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Skill-Based Few-Shot Selection for In-Context Learning [123.26522773708683]
Skill-KNNは、文脈内学習のためのスキルベースの少ショット選択手法である。
モデルはトレーニングや微調整を必要とせず、頻繁に銀行を拡大したり変更したりするのに適している。
5つのドメイン間セマンティックパーシングデータセットと6つのバックボーンモデルによる実験結果から、Skill-KNNは既存の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2023-05-23T16:28:29Z) - Knowledge-in-Context: Towards Knowledgeable Semi-Parametric Language
Models [58.42146641102329]
我々は、新しい半パラメトリック言語モデルアーキテクチャ、Knowledge-in-Context(KiC)を開発した。
KiCは知識豊富な外部メモリを備えたパラメトリックテキスト-テキスト言語モデルを提供する。
知識豊富なセミパラメトリック言語モデルとして、KiCは、目に見えないタスクにおいて優れたゼロショットパフォーマンスを達成するために、はるかに小さな部分しか必要としない。
論文 参考訳(メタデータ) (2022-10-28T23:18:43Z) - KGI: An Integrated Framework for Knowledge Intensive Language Tasks [16.511913995069097]
本稿では,他の知識集約型言語タスクに対して,この手法の強化版に基づくシステムを提案する。
我々のシステムは、KILTのリーダーボードで最高のモデルに匹敵する結果を得る。
論文 参考訳(メタデータ) (2022-04-08T10:36:21Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。