論文の概要: How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context
- arxiv url: http://arxiv.org/abs/2002.00652v2
- Date: Sat, 13 Jun 2020 10:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 08:11:05.797578
- Title: How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context
- Title(参考訳): 効果的なコンテキストモデリングからどのくらい離れているのか?
文脈における意味解析に関する探索的研究
- Authors: Qian Liu, Bei Chen, Jiaqi Guo, Jian-Guang Lou, Bin Zhou, Dongmei Zhang
- Abstract要約: 文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
- 参考スコア(独自算出の注目度): 59.13515950353125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently semantic parsing in context has received considerable attention,
which is challenging since there are complex contextual phenomena. Previous
works verified their proposed methods in limited scenarios, which motivates us
to conduct an exploratory study on context modeling methods under real-world
semantic parsing in context. We present a grammar-based decoding semantic
parser and adapt typical context modeling methods on top of it. We evaluate 13
context modeling methods on two large complex cross-domain datasets, and our
best model achieves state-of-the-art performances on both datasets with
significant improvements. Furthermore, we summarize the most frequent
contextual phenomena, with a fine-grained analysis on representative models,
which may shed light on potential research directions. Our code is available at
https://github.com/microsoft/ContextualSP.
- Abstract(参考訳): 近年,複雑な文脈現象が存在するため,文脈における意味解析に大きな注目を集めている。
先行研究は,提案手法を限定シナリオで検証し,実世界の意味解析における文脈モデリング手法の探索的研究を動機とした。
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
本研究では,2つの大規模クロスドメインデータセット上でのコンテキストモデリング手法の評価を行った。
さらに,最も頻繁な文脈現象を,代表的なモデルに関するきめ細かな分析で要約し,潜在的な研究の方向性を明らかにした。
私たちのコードはhttps://github.com/microsoft/ContextualSPで利用可能です。
関連論文リスト
- A Controlled Study on Long Context Extension and Generalization in LLMs [85.4758128256142]
広義のテキスト理解とテキスト内学習は、完全な文書コンテキストを利用する言語モデルを必要とする。
長期コンテキストモデルを直接訓練する際の実装上の課題のため、長期コンテキストを扱うためにモデルを拡張する多くの方法が提案されている。
我々は,一貫したベースモデルと拡張データを利用して,標準化された評価による拡張メソッドの制御プロトコルを実装した。
論文 参考訳(メタデータ) (2024-09-18T17:53:17Z) - Non-parametric Contextual Relationship Learning for Semantic Video Object Segmentation [1.4042211166197214]
そこでは,領域の類似性グラフ上に,オブジェクト仮説によって暗示される固有関係をエンコードする,文脈的手がかりの非パラメトリックな例を紹介した。
本アルゴリズムは,学習コンテキストを条件付きランダムフィールド(CRF)にペアポテンシャルの形で統合し,領域ごとのセマンティックラベルを推論する。
提案手法は,YouTube-Objectsデータセットの課題に対して評価を行い,提案手法が最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-07-08T13:22:13Z) - Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
潜在拡散モデル(LDM)は、文脈内セグメンテーションに有効な最小限のモデルである。
画像とビデオの両方のデータセットを含む、新しい、公正なコンテキスト内セグメンテーションベンチマークを構築します。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - RAVEN: In-Context Learning with Retrieval-Augmented Encoder-Decoder Language Models [57.12888828853409]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
フュージョン・イン・コンテキスト・ラーニング(Fusion-in-Context Learning)により、追加のトレーニングを必要とせずに、より多くのコンテキスト内サンプルを利用できる。
本研究は,テキスト内学習のためのエンコーダ・デコーダ言語モデルの構築の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - Multimodal Relation Extraction with Cross-Modal Retrieval and Synthesis [89.04041100520881]
本研究は,対象物,文,画像全体に基づいて,テキストおよび視覚的証拠を検索することを提案する。
我々は,オブジェクトレベル,画像レベル,文レベル情報を合成し,同一性と異なるモダリティ間の推論を改善する新しい手法を開発した。
論文 参考訳(メタデータ) (2023-05-25T15:26:13Z) - Constructing Word-Context-Coupled Space Aligned with Associative
Knowledge Relations for Interpretable Language Modeling [0.0]
事前訓練された言語モデルにおけるディープニューラルネットワークのブラックボックス構造は、言語モデリングプロセスの解釈可能性を大幅に制限する。
解釈不能なニューラル表現と解釈不能な統計論理のアライメント処理を導入することで,ワードコンテキスト結合空間(W2CSpace)を提案する。
我々の言語モデルは,関連する最先端手法と比較して,優れた性能と信頼性の高い解釈能力を実現することができる。
論文 参考訳(メタデータ) (2023-05-19T09:26:02Z) - Topics in the Haystack: Extracting and Evaluating Topics beyond
Coherence [0.0]
本稿では,文と文書のテーマを深く理解する手法を提案する。
これにより、一般的な単語やネオロジズムを含む潜在トピックを検出することができる。
本稿では, 侵入者の単語の人間識別と相関係数を示し, 単語侵入作業において, ほぼ人間レベルの結果を得る。
論文 参考訳(メタデータ) (2023-03-30T12:24:25Z) - Text analysis and deep learning: A network approach [0.0]
本稿では,変圧器モデルとネットワーク解析を併用して,言語使用の自己参照表現を生成する手法を提案する。
我々のアプローチは、基礎となるモデルと強く整合した言語関係と、それらに関する数学的に明確に定義された操作を生成する。
我々の知る限りでは、深層言語モデルから直接意味ネットワークを抽出する最初の教師なし手法である。
論文 参考訳(メタデータ) (2021-10-08T14:18:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。