論文の概要: Widening the Dialogue Workflow Modeling Bottleneck in Ontology-Based
Personal Assistants
- arxiv url: http://arxiv.org/abs/2011.08334v1
- Date: Mon, 16 Nov 2020 23:32:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 23:41:23.760657
- Title: Widening the Dialogue Workflow Modeling Bottleneck in Ontology-Based
Personal Assistants
- Title(参考訳): オントロジーに基づくパーソナルアシスタントにおける対話ワークフローモデリングボットネックの拡張
- Authors: Michael Wessel, Edgar Kalns, Girish Acharya, Andreas Kathol
- Abstract要約: 本稿では,いわゆる対話グラフに基づく仮想パーソナルアシスタント(VPAs)のための対話仕様を提案する。
我々は、新しい言語の背後にある根拠と利点を説明し、最近の2つのOntoVPAプロジェクトから、具体的なレベル・オブ・エフォート(LOE)数を削減したクレームをサポートします。
- 参考スコア(独自算出の注目度): 0.31679243514285177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new approach to dialogue specification for Virtual Personal
Assistants (VPAs) based on so-called dialogue workflow graphs, with several
demonstrated advantages over current ontology-based methods. Our new dialogue
specification language (DSL) enables customers to more easily participate in
the VPA modeling process due to a user-friendly modeling framework. Resulting
models are also significantly more compact. VPAs can be developed much more
rapidly. The DSL is a new modeling layer on top of our ontology-based Dialogue
Management (DM) framework OntoVPA. We explain the rationale and benefits behind
the new language and support our claims with concrete reduced Level-of-Effort
(LOE) numbers from two recent OntoVPA projects.
- Abstract(参考訳): 本稿では,いわゆる対話ワークフローグラフに基づく仮想パーソナルアシスタント(vpas)の対話仕様に対する新しいアプローチを提案する。
当社の新しい対話仕様言語(dsl)は,ユーザフレンドリなモデリングフレームワークによって,vbaモデリングプロセスへの参加が容易になります。
結果モデルもはるかにコンパクトである。
VPAはより迅速に開発できる。
DSLは、オントロジーベースの対話管理(DM)フレームワークOntoVPAの上に新しいモデリングレイヤを提供します。
我々は、新しい言語の背景にある理論的根拠と利点を説明し、最近の2つのontvpaプロジェクトからのloe(level-of-effort)数を具体的に減らした。
関連論文リスト
- LLaVA-Phi: Efficient Multi-Modal Assistant with Small Language Model [20.209674713676872]
効率的なマルチモーダルアシスタントであるLLaVA-$phi$(LLaVA-Phi)を紹介する。
LLaVA-Phiは、最近進歩した小言語モデルPhi-2のパワーを利用する。
論文 参考訳(メタデータ) (2024-01-04T16:07:43Z) - DialCLIP: Empowering CLIP as Multi-Modal Dialog Retriever [83.33209603041013]
マルチモーダルダイアログ検索のためのパラメータ効率の高いプロンプトチューニング手法であるDialCLIPを提案する。
提案手法では,事前学習された視覚言語モデルCLIP内のプロンプトに抽出された文脈特徴を学習するためのマルチモーダルコンテキスト生成手法を提案する。
様々なタイプの検索を容易にするために,CLIP出力からマルチモーダル表現空間へのマッピングを学習するために,複数の専門家を設計する。
論文 参考訳(メタデータ) (2024-01-02T07:40:12Z) - Towards More Unified In-context Visual Understanding [74.55332581979292]
マルチモーダル出力を有効にした視覚理解のための新しいICLフレームワークを提案する。
まず、テキストと視覚的プロンプトの両方を量子化し、統一された表現空間に埋め込む。
次にデコーダのみのスパーストランスアーキテクチャを用いて生成モデリングを行う。
論文 参考訳(メタデータ) (2023-12-05T06:02:21Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - Video-Grounded Dialogues with Pretrained Generation Language Models [88.15419265622748]
我々は、ビデオ地上対話を改善するために、事前学習された言語モデルのパワーを利用する。
本稿では,シーケンス・ツー・グラウンドの対話タスクを,シーケンス・トゥ・グラウンドのタスクとして定式化するフレームワークを提案する。
我々のフレームワークは、微調整の言語モデルで複数のモダリティにまたがる依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2020-06-27T08:24:26Z) - Emora STDM: A Versatile Framework for Innovative Dialogue System
Development [17.14709845342071]
Emora STDMは、チャットベースの対話マネージャの迅速なプロトタイピングのための斬新な対話システム開発フレームワークである。
我々のフレームワークは、状態マシンと情報状態という2つの一般的なアプローチと対話管理との相互運用性をサポートすることで、幅広い専門レベルに到達します。
論文 参考訳(メタデータ) (2020-06-11T01:31:17Z) - Meta Dialogue Policy Learning [58.045067703675095]
我々は、ドメイン間の共有可能な低レベル信号を利用するために、Deep Transferable Q-Network (DTQN)を提案する。
状態と行動表現空間をこれらの低レベル成分に対応する特徴部分空間に分解する。
実験において,本モデルは,成功率と対話効率の両方の観点から,ベースラインモデルより優れている。
論文 参考訳(メタデータ) (2020-06-03T23:53:06Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。