論文の概要: Unified Semantic Typing with Meaningful Label Inference
- arxiv url: http://arxiv.org/abs/2205.01826v1
- Date: Wed, 4 May 2022 00:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 14:30:45.298997
- Title: Unified Semantic Typing with Meaningful Label Inference
- Title(参考訳): ラベル推論を用いた統一意味型入力
- Authors: James Y. Huang, Bangzheng Li, Jiashu Xu, Muhao Chen
- Abstract要約: セマンティックタイピングのための統合フレームワークUniSTを提案する。
UniSTは、入力とラベルの両方を結合したセマンティック埋め込み空間に投影することで、ラベルセマンティクスをキャプチャする。
実験により、UniSTは3つのセマンティックタイピングタスクで高い性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 19.308286513235934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic typing aims at classifying tokens or spans of interest in a textual
context into semantic categories such as relations, entity types, and event
types. The inferred labels of semantic categories meaningfully interpret how
machines understand components of text. In this paper, we present UniST, a
unified framework for semantic typing that captures label semantics by
projecting both inputs and labels into a joint semantic embedding space. To
formulate different lexical and relational semantic typing tasks as a unified
task, we incorporate task descriptions to be jointly encoded with the input,
allowing UniST to be adapted to different tasks without introducing
task-specific model components. UniST optimizes a margin ranking loss such that
the semantic relatedness of the input and labels is reflected from their
embedding similarity. Our experiments demonstrate that UniST achieves strong
performance across three semantic typing tasks: entity typing, relation
classification and event typing. Meanwhile, UniST effectively transfers
semantic knowledge of labels and substantially improves generalizability on
inferring rarely seen and unseen types. In addition, multiple semantic typing
tasks can be jointly trained within the unified framework, leading to a single
compact multi-tasking model that performs comparably to dedicated single-task
models, while offering even better transferability.
- Abstract(参考訳): セマンティックタイピングは、トークンやテキストコンテキストにおける関心の幅を関係、エンティティタイプ、イベントタイプといったセマンティックなカテゴリに分類することを目的としている。
セマンティックカテゴリの推論ラベルは、機械がテキストの構成要素を理解する方法を意味的に解釈する。
本論文では,入力とラベルの両方を結合意味埋め込み空間に投影することで,ラベル意味をキャプチャする意味型付け統合フレームワークUniSTを提案する。
語彙的および関係的意味型付けタスクを統一されたタスクとして定式化するために、タスク記述を入力と共同で符号化し、タスク固有のモデルコンポーネントを導入することなく、UniSTを異なるタスクに適応させることができる。
UniSTは、入力とラベルの意味的関連性がそれらの埋め込み類似性から反映されるように、マージンランキングの損失を最適化する。
実験では,エンティティ型付け,関係分類,イベント型付けの3つの意味型付けタスクにおいて,unistが強いパフォーマンスを実現することを実証した。
一方、UniSTはラベルのセマンティックな知識を効果的に伝達し、ほとんど見えない型や見えない型を推測する際の一般化性を大幅に向上させる。
さらに、複数のセマンティックタイピングタスクを統一フレームワーク内で共同でトレーニングすることで、単一のコンパクトなマルチタスクモデルが、専用のシングルタスクモデルと相性が良くなり、転送性も向上する。
関連論文リスト
- Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - Matching of Descriptive Labels to Glossary Descriptions [4.030805205247758]
本稿では,既存の意味テキスト類似度測定(STS)を活用し,セマンティックラベルの強化と集合的文脈化を用いて拡張するフレームワークを提案する。
公開データソースから得られた2つのデータセットについて実験を行った。
論文 参考訳(メタデータ) (2023-10-27T07:09:04Z) - Exploring Structured Semantic Prior for Multi Label Recognition with
Incomplete Labels [60.675714333081466]
不完全なラベルを持つマルチラベル認識(MLR)は非常に難しい。
最近の研究は、視覚言語モデルであるCLIPにおける画像とラベルの対応を探り、不十分なアノテーションを補うことを目指している。
我々は,MLRにおけるラベル管理の欠如を,構造化されたセマンティクスを導出することにより,不完全なラベルで修復することを提唱する。
論文 参考訳(メタデータ) (2023-03-23T12:39:20Z) - Prototype-based Embedding Network for Scene Graph Generation [105.97836135784794]
現在のシーングラフ生成(SGG)手法は、コンテキスト情報を探索し、エンティティペア間の関係を予測する。
被写体と対象物の組み合わせが多様であるため、各述語カテゴリーには大きなクラス内変異が存在する。
プロトタイプベースのEmbedding Network (PE-Net) は、エンティティ/述語を、プロトタイプに準拠したコンパクトで独特な表現でモデル化する。
PLは、PE-Netがそのようなエンティティ述語マッチングを効率的に学習するのを助けるために導入され、不明瞭なエンティティ述語マッチングを緩和するためにプロトタイプ正規化(PR)が考案されている。
論文 参考訳(メタデータ) (2023-03-13T13:30:59Z) - IDEA: Interactive DoublE Attentions from Label Embedding for Text
Classification [4.342189319523322]
そこで,本研究では,シム BERT による新しいモデル構造と IDEA という対話型ダブルアテンションを提案し,テキストとラベル名の情報交換を行う。
提案手法は, ラベルテキストを用いた最先端の手法よりも, より安定した結果が得られている。
論文 参考訳(メタデータ) (2022-09-23T04:50:47Z) - Multi-grained Label Refinement Network with Dependency Structures for
Joint Intent Detection and Slot Filling [13.963083174197164]
発話の意図と意味的構成要素は、文の構文的要素に依存する。
本稿では,依存性構造とラベルセマンティック埋め込みを利用した多層ラベル精細ネットワークについて検討する。
構文表現の強化を考慮し,グラフアテンション層による文の係り受け構造をモデルに導入する。
論文 参考訳(メタデータ) (2022-09-09T07:27:38Z) - Improving Multi-task Generalization Ability for Neural Text Matching via
Prompt Learning [54.66399120084227]
最近の最先端のニューラルテキストマッチングモデル(PLM)は、様々なタスクに一般化することが難しい。
我々は、特殊化一般化訓練戦略を採用し、それをMatch-Promptと呼ぶ。
特殊化段階では、異なるマッチングタスクの記述はいくつかのプロンプトトークンにマッピングされる。
一般化段階において、テキストマッチングモデルは、多種多様なマッチングタスクを訓練することにより、本質的なマッチング信号を探索する。
論文 参考訳(メタデータ) (2022-04-06T11:01:08Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Few-shot Slot Tagging with Collapsed Dependency Transfer and
Label-enhanced Task-adaptive Projection Network [61.94394163309688]
本稿では,現在最先端の少数ショット分類モデルであるTapNetに基づくラベル強化タスク適応プロジェクションネットワーク(L-TapNet)を提案する。
実験結果から,本モデルは1ショット設定で14.64点のF1スコアで最強の少ショット学習ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2020-06-10T07:50:44Z) - E2EET: From Pipeline to End-to-end Entity Typing via Transformer-Based
Embeddings [7.431445082017672]
エンティティタイピング(ET)と呼ばれる新しいタイプのエンティティタイピングを提案する。
ETは、各エンティティの言及を1つ以上のクラスラベルでラベル付けする。
本稿では,参照レベルモデルに対するトランスフォーマーベースの埋め込みと,Bi-GRUを用いたエンドツーエンドモデルを用いてコンテキストを組み込むことを提案する。
広範囲にわたるアブレーション研究は、参照レベルのモデルに対する文脈的埋め込みの有効性と、エンティティ型付けのためのエンドツーエンドモデルの競争性を示している。
論文 参考訳(メタデータ) (2020-03-23T06:46:28Z) - Description Based Text Classification with Reinforcement Learning [34.18824470728299]
本稿では,各カテゴリのラベルをカテゴリ記述に関連付ける,テキスト分類のための新しいフレームワークを提案する。
我々は、幅広いテキスト分類タスクにおいて、強いベースラインよりも顕著なパフォーマンス向上を観察する。
論文 参考訳(メタデータ) (2020-02-08T02:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。