論文の概要: Spoken Language Understanding for Conversational AI: Recent Advances and
Future Direction
- arxiv url: http://arxiv.org/abs/2212.10728v1
- Date: Wed, 21 Dec 2022 02:47:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:44:23.266398
- Title: Spoken Language Understanding for Conversational AI: Recent Advances and
Future Direction
- Title(参考訳): 会話型AIのための音声言語理解 : 最近の進歩と今後の方向性
- Authors: Soyeon Caren Han, Siqu Long, Henry Weld, Josiah Poon
- Abstract要約: 本チュートリアルでは,Spoken Language Understanding/Natural Language Understanding (SLU/NLU) とDeep Learning技術を紹介する。
本稿では,最新のNLPおよびDeep Learning技術を用いて共同作業に対処する方法について述べる。
- 参考スコア(独自算出の注目度): 5.829344935864271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When a human communicates with a machine using natural language on the web
and online, how can it understand the human's intention and semantic context of
their talk? This is an important AI task as it enables the machine to construct
a sensible answer or perform a useful action for the human. Meaning is
represented at the sentence level, identification of which is known as intent
detection, and at the word level, a labelling task called slot filling. This
dual-level joint task requires innovative thinking about natural language and
deep learning network design, and as a result, many approaches and models have
been proposed and applied.
This tutorial will discuss how the joint task is set up and introduce Spoken
Language Understanding/Natural Language Understanding (SLU/NLU) with Deep
Learning techniques. We will cover the datasets, experiments and metrics used
in the field. We will describe how the machine uses the latest NLP and Deep
Learning techniques to address the joint task, including recurrent and
attention-based Transformer networks and pre-trained models (e.g. BERT). We
will then look in detail at a network that allows the two levels of the task,
intent classification and slot filling, to interact to boost performance
explicitly. We will do a code demonstration of a Python notebook for this model
and attendees will have an opportunity to watch coding demo tasks on this joint
NLU to further their understanding.
- Abstract(参考訳): 人間がウェブとオンラインの自然言語を使って機械と通信するとき、人間の意図や会話の意味的文脈をどのように理解することができるのか?
これは機械が賢明な答えを構築したり、人間にとって有用なアクションを実行できるようにするため、重要なAIタスクである。
意味は文レベルで表現され、その識別は意図検出(intent detection)と呼ばれ、単語レベルではスロット充填(slot fill)と呼ばれるラベル付けタスクである。
この二重レベル共同作業は、自然言語とディープラーニングネットワーク設計に関する革新的な思考を必要とし、その結果、多くのアプローチとモデルが提案され、適用されてきた。
本チュートリアルでは,共同タスクのセットアップと,ディープラーニング技術を用いた音声言語理解/自然言語理解(slu/nlu)の導入について述べる。
この分野で使用されるデータセット、実験、メトリクスを取り上げます。
機械は最新のNLPおよびDeep Learning技術を使用して、リカレントおよびアテンションベースのトランスフォーマーネットワークや事前学習されたモデル(例えばBERT)など、共同作業に対処する方法について説明する。
次に、タスクの2つのレベル、意図分類とスロットフィリングの相互作用を可能とし、パフォーマンスを明示的に向上するネットワークを詳細に検討する。
このモデルのためにpythonノートブックのコードデモを行い、参加者はこのnluでコーディングデモタスクを見る機会を得て、彼らの理解を深めます。
関連論文リスト
- Deep Learning and Machine Learning -- Natural Language Processing: From Theory to Application [17.367710635990083]
自然言語処理(NLP)と大規模言語モデル(LLM)の役割に焦点を当てる。
本稿では,データ前処理技術とHugging Faceのようなフレームワークを用いたトランスフォーマーモデルの実装について論じる。
マルチリンガルデータの扱い、バイアスの低減、モデルの堅牢性確保といった課題を強調している。
論文 参考訳(メタデータ) (2024-10-30T09:35:35Z) - ClawMachine: Fetching Visual Tokens as An Entity for Referring and Grounding [67.63933036920012]
プロキシエンコーディングやジオメトリエンコーディングを含む既存のメソッドには、オブジェクトの位置をエンコードするための追加構文が含まれている。
この研究はClawMachineを紹介し、視覚トークンを直接使用してエンティティに通知する新しい方法論を提供する。
ClawMachineはビジュアル参照とグラウンドを自動回帰形式に統合し、デコーダのみのアーキテクチャで学習する。
論文 参考訳(メタデータ) (2024-06-17T08:39:16Z) - Robotic Skill Acquisition via Instruction Augmentation with
Vision-Language Models [70.82705830137708]
言語条件制御のためのデータ駆動型インストラクション拡張(DIAL)について紹介する。
我々は,CLIPのセマンティック理解を利用したセミ言語ラベルを用いて,未知の実演データの大規模なデータセットに知識を伝達する。
DIALは、模倣学習ポリシーによって、新しい能力を獲得し、元のデータセットにない60の新しい命令を一般化することができる。
論文 参考訳(メタデータ) (2022-11-21T18:56:00Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Unified Multimodal Pre-training and Prompt-based Tuning for
Vision-Language Understanding and Generation [86.26522210882699]
視覚言語理解と生成のための統一型マルチモーダル事前学習を提案する。
提案したUniVLは、理解タスクと生成タスクの両方を扱うことができる。
実験の結果,同じモデルを用いた場合,理解タスクと生成タスクとの間にはトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2021-12-10T14:59:06Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - AttViz: Online exploration of self-attention for transparent neural
language modeling [7.574392147428978]
本研究では,AttVizを提案する。AttVizは,個々のテキストトークンに関連付けられた自己注意値の探索を行うオンラインツールキットである。
既存のディープラーニングパイプラインが、AttVizに適したアウトプットを生成し、最小限の労力で、アテンションヘッドとアグリゲーションの新たな視覚化を提供する方法を示します。
論文 参考訳(メタデータ) (2020-05-12T12:21:40Z) - From text saliency to linguistic objects: learning linguistic
interpretable markers with a multi-channels convolutional architecture [2.064612766965483]
本稿では,分類プロセスを利用したテキストから解釈可能な言語オブジェクトを抽出するために,実装されたCNNの隠れ層を検査する手法を提案する。
我々は、英語とフランス語の2つの異なる言語からのコーパスに対するアプローチの効率を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-07T10:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。