論文の概要: On Incorporating Structural Information to improve Dialogue Response
Generation
- arxiv url: http://arxiv.org/abs/2005.14315v1
- Date: Thu, 28 May 2020 22:06:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:09:46.272847
- Title: On Incorporating Structural Information to improve Dialogue Response
Generation
- Title(参考訳): 対話応答生成を改善する構造情報の導入について
- Authors: Nikita Moghe, Priyesh Vijayan, Balaraman Ravindran, Mitesh M. Khapra
- Abstract要約: ドメイン固有のリソースからなる背景知識から対話応答を生成するタスクを考察する。
これは、会話コンテキストとバックグラウンドリソースから構造的、シーケンシャル、セマンティックな情報をキャプチャする必要がある。
本稿では,BERT を用いて,明示的な構造やシーケンス情報とともに,文脈の深い表現をキャプチャする新しいアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 28.717780439553216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the task of generating dialogue responses from background
knowledge comprising of domain specific resources. Specifically, given a
conversation around a movie, the task is to generate the next response based on
background knowledge about the movie such as the plot, review, Reddit comments
etc. This requires capturing structural, sequential and semantic information
from the conversation context and the background resources. This is a new task
and has not received much attention from the community. We propose a new
architecture that uses the ability of BERT to capture deep contextualized
representations in conjunction with explicit structure and sequence
information. More specifically, we use (i) Graph Convolutional Networks (GCNs)
to capture structural information, (ii) LSTMs to capture sequential information
and (iii) BERT for the deep contextualized representations that capture
semantic information. We analyze the proposed architecture extensively. To this
end, we propose a plug-and-play Semantics-Sequences-Structures (SSS) framework
which allows us to effectively combine such linguistic information. Through a
series of experiments we make some interesting observations. First, we observe
that the popular adaptation of the GCN model for NLP tasks where structural
information (GCNs) was added on top of sequential information (LSTMs) performs
poorly on our task. This leads us to explore interesting ways of combining
semantic and structural information to improve the performance. Second, we
observe that while BERT already outperforms other deep contextualized
representations such as ELMo, it still benefits from the additional structural
information explicitly added using GCNs. This is a bit surprising given the
recent claims that BERT already captures structural information. Lastly, the
proposed SSS framework gives an improvement of 7.95% over the baseline.
- Abstract(参考訳): ドメイン固有資源からなる背景知識から対話応答を生成するタスクについて考察する。
具体的には、映画に関する会話を前提として、プロット、レビュー、Redditコメントなど、映画の背景知識に基づいて次のレスポンスを生成する。
これには、会話コンテキストと背景リソースから構造的、シーケンシャル、セマンティックな情報をキャプチャする必要がある。
これは新しい作業であり、コミュニティからはあまり注目されていない。
本稿では,BERT を用いて,明示的な構造やシーケンス情報とともに,文脈の深い表現をキャプチャする新しいアーキテクチャを提案する。
より具体的に言えば
一 構造情報を取得するためのグラフ畳み込みネットワーク(GCN)
(ii)シーケンシャルな情報をキャプチャするLSTM
(iii)意味情報をキャプチャする深い文脈化表現のためのBERT。
提案したアーキテクチャを広範囲に分析する。
そこで本研究では,このような言語情報を効果的に結合できるsss(plug-and-play semantics-sequences-structures)フレームワークを提案する。
一連の実験を通して、興味深い観察を行う。
まず,シーケンシャル情報(lstms)上に構造情報(gcns)を付加したnlpタスクに対するgcnモデルの一般的な適応が,タスクに悪影響を及ぼすことを観察した。
これにより、セマンティックな情報と構造的な情報を組み合わせてパフォーマンスを向上させる興味深い方法を探ることができます。
第二に、BERTはELMoのような他の深い文脈表現よりも優れていますが、GCNを使って明示的に付加された構造情報から恩恵を受けています。
BERTがすでに構造情報をキャプチャしているという最近の主張を考えると、これは少々驚きだ。
最後に、提案されたSSフレームワークはベースラインよりも7.95%改善されている。
関連論文リスト
- Knowledge prompt chaining for semantic modeling [0.0]
本稿では,新しいセマンティック・モデリング・フレームワーク,ナレッジ・プロンプト・チェインを提案する。
グラフ構造化された知識をシリアライズし、LSMに適切に注入することができる。
実験結果に基づいて,本手法は既存の先行技術よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-15T03:00:57Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Open-Vocabulary Camouflaged Object Segmentation [66.94945066779988]
OVCOS(Open-vocabulary camouflaged Object segmentation)を導入した。
我々は11,483個の手選択画像とそれに対応するオブジェクトクラスを含む大規模複合シーンデータセット(textbfOVCamo)を構築した。
クラスセマンティック知識の指導とエッジ情報と深度情報からの視覚構造的手がかりの補足を統合することにより、提案手法は効率よくカモフラージュされたオブジェクトを捕捉できる。
論文 参考訳(メタデータ) (2023-11-19T06:00:39Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - LasUIE: Unifying Information Extraction with Latent Adaptive
Structure-aware Generative Language Model [96.889634747943]
全ての典型的な情報抽出タスク(UIE)を1つの生成言語モデル(GLM)で普遍的にモデル化し、大きな可能性を明らかにした。
UIE のための構文知識のパワーを完全に解放する構造対応 GLM を提案する。
7つのタスクにわたるIEベンチマークが12以上あり、私たちのシステムはベースラインのUIEシステムよりも大幅に改善されていることを示しています。
論文 参考訳(メタデータ) (2023-04-13T04:01:14Z) - Task-specific Scene Structure Representations [13.775485887433815]
本研究では,シーンのタスク固有の構造ガイダンスを抽出する単一汎用ニューラルネットワークアーキテクチャを提案する。
我々の主な貢献は、このような単純なネットワークが、いくつかの低レベル視覚アプリケーションに対して最先端の結果を得ることができることを示すことである。
論文 参考訳(メタデータ) (2023-01-02T08:25:47Z) - HOSE-Net: Higher Order Structure Embedded Network for Scene Graph
Generation [20.148175528691905]
本稿では,関係の局所的および大域的構造情報を出力空間に組み込むための新しい構造認識型組込み分類器(SEC)モジュールを提案する。
また,高次構造情報を導入して部分空間の数を減らし,階層的セマンティックアグリゲーション(HSA)モジュールを提案する。
提案したHOSE-Netは、Visual GenomeとVRDの2つの人気のあるベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-08-12T07:58:13Z) - From text saliency to linguistic objects: learning linguistic
interpretable markers with a multi-channels convolutional architecture [2.064612766965483]
本稿では,分類プロセスを利用したテキストから解釈可能な言語オブジェクトを抽出するために,実装されたCNNの隠れ層を検査する手法を提案する。
我々は、英語とフランス語の2つの異なる言語からのコーパスに対するアプローチの効率を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-07T10:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。