論文の概要: How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context
- arxiv url: http://arxiv.org/abs/2002.00652v2
- Date: Sat, 13 Jun 2020 10:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 08:11:05.797578
- Title: How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context
- Title(参考訳): 効果的なコンテキストモデリングからどのくらい離れているのか?
文脈における意味解析に関する探索的研究
- Authors: Qian Liu, Bei Chen, Jiaqi Guo, Jian-Guang Lou, Bin Zhou, Dongmei Zhang
- Abstract要約: 文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
- 参考スコア(独自算出の注目度): 59.13515950353125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently semantic parsing in context has received considerable attention,
which is challenging since there are complex contextual phenomena. Previous
works verified their proposed methods in limited scenarios, which motivates us
to conduct an exploratory study on context modeling methods under real-world
semantic parsing in context. We present a grammar-based decoding semantic
parser and adapt typical context modeling methods on top of it. We evaluate 13
context modeling methods on two large complex cross-domain datasets, and our
best model achieves state-of-the-art performances on both datasets with
significant improvements. Furthermore, we summarize the most frequent
contextual phenomena, with a fine-grained analysis on representative models,
which may shed light on potential research directions. Our code is available at
https://github.com/microsoft/ContextualSP.
- Abstract(参考訳): 近年,複雑な文脈現象が存在するため,文脈における意味解析に大きな注目を集めている。
先行研究は,提案手法を限定シナリオで検証し,実世界の意味解析における文脈モデリング手法の探索的研究を動機とした。
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
本研究では,2つの大規模クロスドメインデータセット上でのコンテキストモデリング手法の評価を行った。
さらに,最も頻繁な文脈現象を,代表的なモデルに関するきめ細かな分析で要約し,潜在的な研究の方向性を明らかにした。
私たちのコードはhttps://github.com/microsoft/ContextualSPで利用可能です。
関連論文リスト
- Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
潜在拡散モデル(LDM)は、文脈内セグメンテーションに有効な最小限のモデルである。
画像とビデオの両方のデータセットを含む、新しい、公正なコンテキスト内セグメンテーションベンチマークを構築します。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - RAVEN: In-Context Learning with Retrieval Augmented Encoder-Decoder
Language Models [60.53467388496444]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
我々は、RAVENがATLASを著しく上回り、特定のシナリオにおいて最も先進的な言語モデルに匹敵する結果が得られることを示した。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - Multimodal Relation Extraction with Cross-Modal Retrieval and Synthesis [89.04041100520881]
本研究は,対象物,文,画像全体に基づいて,テキストおよび視覚的証拠を検索することを提案する。
我々は,オブジェクトレベル,画像レベル,文レベル情報を合成し,同一性と異なるモダリティ間の推論を改善する新しい手法を開発した。
論文 参考訳(メタデータ) (2023-05-25T15:26:13Z) - Constructing Word-Context-Coupled Space Aligned with Associative
Knowledge Relations for Interpretable Language Modeling [0.0]
事前訓練された言語モデルにおけるディープニューラルネットワークのブラックボックス構造は、言語モデリングプロセスの解釈可能性を大幅に制限する。
解釈不能なニューラル表現と解釈不能な統計論理のアライメント処理を導入することで,ワードコンテキスト結合空間(W2CSpace)を提案する。
我々の言語モデルは,関連する最先端手法と比較して,優れた性能と信頼性の高い解釈能力を実現することができる。
論文 参考訳(メタデータ) (2023-05-19T09:26:02Z) - Topics in the Haystack: Extracting and Evaluating Topics beyond
Coherence [0.0]
本稿では,文と文書のテーマを深く理解する手法を提案する。
これにより、一般的な単語やネオロジズムを含む潜在トピックを検出することができる。
本稿では, 侵入者の単語の人間識別と相関係数を示し, 単語侵入作業において, ほぼ人間レベルの結果を得る。
論文 参考訳(メタデータ) (2023-03-30T12:24:25Z) - Text analysis and deep learning: A network approach [0.0]
本稿では,変圧器モデルとネットワーク解析を併用して,言語使用の自己参照表現を生成する手法を提案する。
我々のアプローチは、基礎となるモデルと強く整合した言語関係と、それらに関する数学的に明確に定義された操作を生成する。
我々の知る限りでは、深層言語モデルから直接意味ネットワークを抽出する最初の教師なし手法である。
論文 参考訳(メタデータ) (2021-10-08T14:18:36Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。