論文の概要: M-BRe: Discovering Training Samples for Relation Extraction from Unlabeled Texts with Large Language Models
- arxiv url: http://arxiv.org/abs/2509.07730v1
- Date: Tue, 09 Sep 2025 13:32:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.332228
- Title: M-BRe: Discovering Training Samples for Relation Extraction from Unlabeled Texts with Large Language Models
- Title(参考訳): M-BRe:大規模言語モデルを用いた未ラベルテキストからの関係抽出のためのトレーニングサンプルの発見
- Authors: Zexuan Li, Hongliang Dai, Piji Li,
- Abstract要約: 本稿では、関係抽出(RE)のための未ラベルテキストからトレーニングインスタンスを抽出するM-BReというフレームワークを提案する。
3つのモジュールを使って、上記の分類アプローチの利点(関係群、関係抽出、ラベル決定)を組み合わせている。
広範囲な実験により、REのためのラベルなしテキストから高品質なトレーニングサンプルを発見するのに優れた能力が確認された。
- 参考スコア(独自算出の注目度): 29.13677863733641
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For Relation Extraction (RE), the manual annotation of training data may be prohibitively expensive, since the sentences that contain the target relations in texts can be very scarce and difficult to find. It is therefore beneficial to develop an efficient method that can automatically extract training instances from unlabeled texts for training RE models. Recently, large language models (LLMs) have been adopted in various natural language processing tasks, with RE also benefiting from their advances. However, when leveraging LLMs for RE with predefined relation categories, two key challenges arise. First, in a multi-class classification setting, LLMs often struggle to comprehensively capture the semantics of every relation, leading to suboptimal results. Second, although employing binary classification for each relation individually can mitigate this issue, it introduces significant computational overhead, resulting in impractical time complexity for real-world applications. Therefore, this paper proposes a framework called M-BRe to extract training instances from unlabeled texts for RE. It utilizes three modules to combine the advantages of both of the above classification approaches: Relation Grouping, Relation Extraction, and Label Decision. Extensive experiments confirm its superior capability in discovering high-quality training samples from unlabeled texts for RE.
- Abstract(参考訳): 関係抽出(RE)では、テキスト中の対象関係を含む文は極めて少なく、見つけるのが難しいため、トレーニングデータの手動アノテーションは違法に高価である可能性がある。
したがって、REモデルをトレーニングするためのラベルのないテキストからトレーニングインスタンスを自動的に抽出できる効率的な方法を開発することは有益である。
近年,様々な自然言語処理タスクにおいて大規模言語モデル (LLM) が採用され,RE もその進歩の恩恵を受けている。
しかし、あらかじめ定義された関係カテゴリを持つ RE に LLM を利用する場合、2つの重要な課題が生じる。
まず、多クラス分類において、LLMは全ての関係のセマンティクスを包括的に捉えるのに苦労し、最適以下の結果をもたらす。
第二に、各関係にバイナリ分類を用いると、この問題を個別に軽減できるが、計算オーバーヘッドが大幅に増加し、現実のアプリケーションでは非現実的な時間的複雑さが生じる。
そこで本稿では,RE 用ラベルなしテキストからトレーニングインスタンスを抽出する M-BRe というフレームワークを提案する。
3つのモジュールを使って、上記の分類アプローチの利点(関係群、関係抽出、ラベル決定)を組み合わせている。
広範囲な実験により、REのためのラベルなしテキストから高品質なトレーニングサンプルを発見するのに優れた能力が確認された。
関連論文リスト
- SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - Grasping the Essentials: Tailoring Large Language Models for Zero-Shot Relation Extraction [33.528688487954454]
関係抽出(RE)は、テキスト内のエンティティ間の意味的関係を識別することを目的としている。
アノテーションの要求を減らすことを目的とした、ほとんどショットの学習は、通常、ターゲット関係に対する不完全で偏見のある監視を提供する。
1)大言語モデル(LLM)を利用して,関係定義とラベルなしコーパスから初期シードインスタンスを生成する。
論文 参考訳(メタデータ) (2024-02-17T00:20:06Z) - Revisiting Large Language Models as Zero-shot Relation Extractors [8.953462875381888]
リレーショナル抽出(RE)は、ゼロショット設定下であっても、一定のラベル付きまたはラベルなしのデータを一貫して含む。
近年の研究では、大きな言語モデル(LLM)が、単に自然言語のプロンプトを与えられただけで、新しいタスクにうまく移行していることが示されている。
本研究はゼロショット関係抽出器としてLLMを探索することに焦点を当てる。
論文 参考訳(メタデータ) (2023-10-08T06:17:39Z) - Description-Based Text Similarity [59.552704474862004]
我々は、その内容の抽象的な記述に基づいて、テキストを検索する必要性を特定する。
そこで本研究では,近隣の標準探索で使用する場合の精度を大幅に向上する代替モデルを提案する。
論文 参考訳(メタデータ) (2023-05-21T17:14:31Z) - BERM: Training the Balanced and Extractable Representation for Matching
to Improve Generalization Ability of Dense Retrieval [54.66399120084227]
本稿では,BERMと呼ばれるマッチング信号の取得により,高密度検索の一般化を改善する手法を提案する。
センス検索は、ドメイン内のラベル付きデータセットでトレーニングされた場合、第1段階の検索プロセスにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2023-05-18T15:43:09Z) - Gradient Imitation Reinforcement Learning for Low Resource Relation
Extraction [52.63803634033647]
低リソース関係抽出(LRE)は,人間のアノテーションが不足している場合に,ラベル付きコーパスから関係事実を抽出することを目的としている。
我々は、擬似ラベルデータにラベル付きデータへの勾配降下方向を模倣するように促すグラディエント・イミテーション強化学習法を開発した。
また,低リソース関係抽出における2つの主要なシナリオを扱うGradLREというフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T03:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。