論文の概要: SETUP: Sentence-level English-To-Uniform Meaning Representation Parser
- arxiv url: http://arxiv.org/abs/2512.07068v1
- Date: Mon, 08 Dec 2025 00:56:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.665256
- Title: SETUP: Sentence-level English-To-Uniform Meaning Representation Parser
- Title(参考訳): SETUP:文レベル英語対一意味表現パーザ
- Authors: Emma Markle, Javier Gutierrez Bach, Shira Wein,
- Abstract要約: Uniform Meaning Representation (UMR) はグラフベースの意味表現である。
本稿では,英語のテキスト・ツー・UMR解析のための2つの手法を提案する。
SETUPと呼ぶ最高のパフォーマンスモデルは、AnCastスコアが84、SMATCH++スコアが91です。
- 参考スコア(独自算出の注目度): 2.9494468099506896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uniform Meaning Representation (UMR) is a novel graph-based semantic representation which captures the core meaning of a text, with flexibility incorporated into the annotation schema such that the breadth of the world's languages can be annotated (including low-resource languages). While UMR shows promise in enabling language documentation, improving low-resource language technologies, and adding interpretability, the downstream applications of UMR can only be fully explored when text-to-UMR parsers enable the automatic large-scale production of accurate UMR graphs at test time. Prior work on text-to-UMR parsing is limited to date. In this paper, we introduce two methods for English text-to-UMR parsing, one of which fine-tunes existing parsers for Abstract Meaning Representation and the other, which leverages a converter from Universal Dependencies, using prior work as a baseline. Our best-performing model, which we call SETUP, achieves an AnCast score of 84 and a SMATCH++ score of 91, indicating substantial gains towards automatic UMR parsing.
- Abstract(参考訳): 統一意味表現(Uniform Meaning Representation、UMR)は、テキストの中核的な意味をキャプチャする新しいグラフベースの意味表現である。
UMRは、言語ドキュメンテーションの有効化、低リソースの言語技術の改善、解釈可能性の追加を約束する一方で、テキストからUMRパーサがテスト時に正確なUMRグラフの自動大規模生産を可能にする場合にのみ、UMRのダウンストリームアプリケーションについて完全に調べることができる。
テキストとUMRのパースに関する以前の作業は、現在に限られている。
本稿では,英語のテキスト・トゥ・UMR構文解析のための2つの手法を紹介する。そのうちの1つは抽象的意味表現のための既存のパーサを微調整し,もう1つはUniversal Dependenciesのコンバータをベースラインとして利用する。
SETUPと呼ばれる我々の最高のパフォーマンスモデルは、AnCastスコア84とSMATCH++スコア91を達成し、自動UMR解析への大きな進歩を示している。
関連論文リスト
- OmniParser V2: Structured-Points-of-Thought for Unified Visual Text Parsing and Its Generality to Multimodal Large Language Models [58.45517851437422]
VsTP(Visually-situated text parsing)は、自動化された文書理解の需要が高まり、最近顕著な進歩を遂げている。
既存のソリューションは、タスク固有のアーキテクチャと個々のタスクの目的に依存していることが多い。
本稿では,テキストスポッティング,キー情報抽出,テーブル認識,レイアウト解析など,VsTPの典型的なタスクを統一する汎用モデルであるOmni V2を紹介する。
論文 参考訳(メタデータ) (2025-02-22T09:32:01Z) - Generating Text from Uniform Meaning Representation [3.031375888004876]
Uniform Meaning Representation (UMR) はグラフベースの意味表現である。
UMR技術エコシステムの開発に向けた努力が必要である。
マルチリンガルなUMRグラフからテキストを生成するための最初のアプローチについて検討する。
論文 参考訳(メタデータ) (2025-02-17T16:20:22Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Text Summarization Using Large Language Models: A Comparative Study of
MPT-7b-instruct, Falcon-7b-instruct, and OpenAI Chat-GPT Models [0.0]
Leveraging Large Language Models (LLMs) は、要約技術の強化において、顕著な将来性を示している。
本稿では,MPT-7b-instruct,falcon-7b-instruct,OpenAI ChatGPT text-davinci-003 モデルなど,多種多様な LLM を用いたテキスト要約について検討する。
論文 参考訳(メタデータ) (2023-10-16T14:33:02Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。