論文の概要: IEKG: A Commonsense Knowledge Graph for Idiomatic Expressions
- arxiv url: http://arxiv.org/abs/2312.06053v1
- Date: Mon, 11 Dec 2023 00:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:16:15.790693
- Title: IEKG: A Commonsense Knowledge Graph for Idiomatic Expressions
- Title(参考訳): IEKG: 慣用的表現のための共通知識グラフ
- Authors: Ziheng Zeng, Kellen Tan Cheng, Srihari Venkat Nanniyur, Jianing Zhou
and Suma Bhat
- Abstract要約: 我々は,IEの図形解釈のための共通知識グラフであるIEKGを構築した。
実験により、様々なPTLMをIEKGで知識モデル(KM)に変換することができることが示された。
本稿では,IEKGから知識を注入したPTLMによってIE理解能力が向上し,トレーニング中に見つからないIEを一般化できることを示す。
- 参考スコア(独自算出の注目度): 10.99012872985984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Idiomatic expression (IE) processing and comprehension have challenged
pre-trained language models (PTLMs) because their meanings are
non-compositional. Unlike prior works that enable IE comprehension through
fine-tuning PTLMs with sentences containing IEs, in this work, we construct
IEKG, a commonsense knowledge graph for figurative interpretations of IEs. This
extends the established ATOMIC2020 graph, converting PTLMs into knowledge
models (KMs) that encode and infer commonsense knowledge related to IE use.
Experiments show that various PTLMs can be converted into KMs with IEKG. We
verify the quality of IEKG and the ability of the trained KMs with automatic
and human evaluation. Through applications in natural language understanding,
we show that a PTLM injected with knowledge from IEKG exhibits improved IE
comprehension ability and can generalize to IEs unseen during training.
- Abstract(参考訳): 慣用的表現(IE)処理と理解は、その意味が非構成的であるため、事前訓練された言語モデル(PTLM)に挑戦している。
本研究は,IE を含む文を微調整した PTLM によるIE 理解を可能にする先行研究とは違って,IE の図形解釈のための共通知識グラフである IEKG を構築する。
これは確立されたATOMIC2020グラフを拡張し、PTLMをIE使用に関する共通知識を符号化し推論する知識モデル(KM)に変換する。
実験により、様々なPTLMをIEKGでKMに変換することができた。
我々は,IEKGの品質と訓練されたKMの能力を,自動評価と人的評価で検証する。
自然言語理解の応用を通して,IEKGから知識を注入したPTLMはIE理解能力の向上を示し,トレーニング中に見つからないIEに一般化できることを示す。
関連論文リスト
- AlignXIE: Improving Multilingual Information Extraction by Cross-Lingual Alignment [62.69772800910482]
AlignXIEは、様々な言語、特に非英語のIEをコード生成タスクとして定式化している。
翻訳されたインスタンス予測タスクを通じてIEの言語間アライメントフェーズを組み込む。
ChatGPTを$30.17%、SoTAを$20.03%上回ることで、言語横断IEの優れた機能を実現している。
論文 参考訳(メタデータ) (2024-11-07T15:36:05Z) - ADELIE: Aligning Large Language Models on Information Extraction [55.60192044049083]
大規模言語モデル(LLM)は通常、情報抽出タスクで不足する。
本稿では,様々なIEタスクを効果的に解決する協調LLMであるADELIEを紹介する。
本稿では,オープンソースモデル間でのSoTA(State-of-the-art)性能について述べる。
論文 参考訳(メタデータ) (2024-05-08T12:24:52Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Universal Information Extraction with Meta-Pretrained Self-Retrieval [39.69130086395689]
ユニバーサル情報抽出(Universal IE)は、テキストから構造までの一様生成方法で異なる抽出タスクを解くことを目的としている。
外部知識ベースから知識を取得することは、モデルがこの問題を克服するのに役立つかもしれないが、様々なIEタスクに適した知識ベースを構築することは不可能である。
本稿では,PLMからタスク固有の知識を抽出し,汎用IEを強化するメタレトリバーを提案する。
論文 参考訳(メタデータ) (2023-06-18T00:16:00Z) - PIVOINE: Instruction Tuning for Open-world Information Extraction [53.98073623222221]
構造化されていないテキストから包括的エンティティプロファイルを抽出するオープンワールド情報抽出(オープンワールドIE)の問題を考える。
我々は,オープンワールドIEを動作させ,自然言語命令を特徴とする目的のエンティティプロファイルを抽出できる大規模言語モデル(LLM)を開発した。
特にINSTRUCTOPENWIKIは,包括的コーパス,豊富なアノテーション,多種多様な命令を満載したオープンワールドIE向け指導チューニングデータセットである。
論文 参考訳(メタデータ) (2023-05-24T08:52:08Z) - CodeIE: Large Code Generation Models are Better Few-Shot Information
Extractors [92.17328076003628]
大規模コーパスで事前訓練された大規模言語モデル(LLM)は、多くのNLPタスクにおいて、驚くべき数ショットの学習能力を示している。
本稿では、自然言語の代わりに構造化された出力をコード形式で再キャストすることを提案する。
論文 参考訳(メタデータ) (2023-05-09T18:40:31Z) - ChatIE: Zero-Shot Information Extraction via Chatting with ChatGPT [89.49161588240061]
ゼロショット情報抽出(IE)は、注釈のないテキストからIEシステムを構築することを目的としている。
大規模言語モデル(LLMs、GPT-3、ChatGPT)に対する最近の取り組みは、ゼロショット設定での有望なパフォーマンスを示している。
ゼロショットIEタスクを2段階フレームワーク(ChatIE)でマルチターン質問応答問題に変換する。
論文 参考訳(メタデータ) (2023-02-20T12:57:12Z) - Idiomatic Expression Paraphrasing without Strong Supervision [12.921034899925646]
Idiomatic sentence paraphrasing (ISP) は、IEをリテラルパラフレーズに置き換えることで、IEで文を言い換えることを目的としている。
この課題には, 慣用的-文字並行文による大規模コーパスの欠如が大きな課題である。
本稿では,IEの文脈情報と定義を活用するISPに対する教師なしアプローチを提案する。
第2に,文のパラフレーズ化と生成をIEと共同で行うために,バックトランスレーションを用いた弱教師付きアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T03:29:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。