論文の概要: Knowledge Extraction in Low-Resource Scenarios: Survey and Perspective
- arxiv url: http://arxiv.org/abs/2202.08063v1
- Date: Wed, 16 Feb 2022 13:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 20:06:35.965083
- Title: Knowledge Extraction in Low-Resource Scenarios: Survey and Perspective
- Title(参考訳): 低資源シナリオにおける知識抽出:調査と展望
- Authors: Shumin Deng, Ningyu Zhang, Hui Chen, Feiyu Xiong, Jeff Z. Pan, Huajun
Chen
- Abstract要約: 構造化されていないテキストから構造情報を抽出することを目的とした知識抽出(KE)は、しばしばデータ不足と目に見えないタイプの出現に悩まされる。
低リソースKEに対する多くのニューラルアプローチが広く研究され、優れた性能を達成している。
- 参考スコア(独自算出の注目度): 43.9947179407115
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Knowledge Extraction (KE) which aims to extract structural information from
unstructured texts often suffers from data scarcity and emerging unseen types,
i.e., low-resource scenarios. Many neural approaches on low-resource KE have
been widely investigated and achieved impressive performance. In this paper, we
present a literature review towards KE in low-resource scenarios, and
systematically categorize existing works into three paradigms: (1) exploiting
higher-resource data, (2) exploiting stronger models, and (3) exploiting data
and models together. In addition, we describe promising applications and
outline some potential directions for future research. We hope that our survey
can help both the academic and industrial community to better understand this
field, inspire more ideas and boost broader applications.
- Abstract(参考訳): 構造化されていないテキストから構造情報を抽出することを目的とした知識抽出(ke)は、しばしばデータの不足や、特に低リソースシナリオのような、未発見のタイプに苦しむ。
低リソースKEに対する多くのニューラルアプローチが広く研究され、優れた性能を達成している。
本稿では,低リソースシナリオにおけるKEに向けた文献レビューを行い,(1)高リソースデータの利用,(2)より強力なモデルの利用,(3)データとモデルを併用した3つのパラダイムに体系的に分類する。
さらに、将来的な応用について述べ、今後の研究の方向性について概説する。
われわれの調査は、学術と工業の両方のコミュニティが、この分野をより深く理解し、より多くのアイデアを刺激し、幅広い応用を促進するのに役立つことを期待している。
関連論文リスト
- KELLMRec: Knowledge-Enhanced Large Language Models for Recommendation [9.851321405237638]
セマンティック情報の利用はレコメンデーターシステム分野における重要な研究課題である。
LLMの台頭に伴い、知識基盤として機能する能力と推論能力は、この研究領域に新たな可能性をもたらしている。
これに対応するための有望な方法は、外部知識を使用して、真実で使用可能なテキストを生成するLLMを支援することである。
提案手法は,プロンプトにおける外部知識の使用に加えて,学習のための知識に基づくコントラスト学習スキームも含んでいる。
論文 参考訳(メタデータ) (2024-03-11T12:04:20Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [64.33702161898469]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Quantitative knowledge retrieval from large language models [4.155711233354597]
大規模言語モデル(LLM)は、説得力のある自然言語配列を生成する能力について広く研究されている。
本稿では,データ解析作業を支援するための定量的知識検索のメカニズムとして,LLMの実現可能性について検討する。
論文 参考訳(メタデータ) (2024-02-12T16:32:37Z) - Clue-Guided Path Exploration: An Efficient Knowledge Base
Question-Answering Framework with Low Computational Resource Consumption [22.74267517598694]
知識ベースとLLMを効率的にマージするCGPE(Clue-Guided Path Exploration framework)を導入する。
CGPEは、人間が手動で知識を検索する手法にインスパイアされ、必要な知識経路を体系的に探索するための手がかりとして、質問からの情報を利用する。
オープンソースデータセットの実験では、CGPEは従来の手法よりも優れており、パラメータが少ないLCMに適用可能であることが明らかになった。
論文 参考訳(メタデータ) (2024-01-24T13:36:50Z) - Large Language Models for Generative Information Extraction: A Survey [93.28676955662002]
情報抽出は、平易な自然言語テキストから構造的知識を抽出することを目的としている。
生成型大規模言語モデル(LLM)は、テキストの理解と生成において顕著な能力を示した。
LLMは生成パラダイムに基づいたIEタスクに対して実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Supervised Knowledge Makes Large Language Models Better In-context
Learners [97.71733265438044]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Which is better? Exploring Prompting Strategy For LLM-based Metrics [6.681126871165601]
本稿では,DSBA が提案する Prompting Large Language Models を Explainable Metrics 共有タスクとして記述する。
BLEUやROUGEのような従来の類似性に基づくメトリクスは、人間の評価に悪影響を与えており、オープンな生成タスクには適していない。
論文 参考訳(メタデータ) (2023-11-07T06:36:39Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models [0.0]
本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-15T02:52:50Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。