論文の概要: DOREMI: Optimizing Long Tail Predictions in Document-Level Relation Extraction
- arxiv url: http://arxiv.org/abs/2601.11190v1
- Date: Fri, 16 Jan 2026 11:04:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.465042
- Title: DOREMI: Optimizing Long Tail Predictions in Document-Level Relation Extraction
- Title(参考訳): DOREMI:ドキュメント・レベル関係抽出におけるロングテール予測の最適化
- Authors: Laura Menotti, Stefano Marchesin, Gianmaria Silvello,
- Abstract要約: 長いタイル(DOREMI)を最適化する文書レベルの関係抽出を導入する。
DOREMIは、最小限かつ目標とする手動アノテーションを通じて、表現不足の関連性を強化する。
既存のDocREモデルにも適用可能で、ロングテールバイアスを軽減するのに有効です。
- 参考スコア(独自算出の注目度): 3.370733427756227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Document-Level Relation Extraction (DocRE) presents significant challenges due to its reliance on cross-sentence context and the long-tail distribution of relation types, where many relations have scarce training examples. In this work, we introduce DOcument-level Relation Extraction optiMizing the long taIl (DOREMI), an iterative framework that enhances underrepresented relations through minimal yet targeted manual annotations. Unlike previous approaches that rely on large-scale noisy data or heuristic denoising, DOREMI actively selects the most informative examples to improve training efficiency and robustness. DOREMI can be applied to any existing DocRE model and is effective at mitigating long-tail biases, offering a scalable solution to improve generalization on rare relations.
- Abstract(参考訳): ドキュメント・レベル関係抽出(DocRE)は,関係型の長期分布と相互文の文脈に依存しているため,多くの関係が訓練例をほとんど持たないため,重要な課題を提示する。
そこで本研究では,最小限かつ目標とする手動アノテーションによる表現不足を緩和する反復的フレームワークであるLong taIl(DOREMI)を最適化するドキュメントレベルの関係抽出を提案する。
大規模ノイズデータやヒューリスティックな騒音処理に依存する従来のアプローチとは異なり、DOREMIはトレーニング効率と堅牢性を改善するために最も有意義な例を積極的に選択している。
DOREMIは任意の既存のDocREモデルに適用でき、長い尾のバイアスを緩和し、希少な関係の一般化を改善するスケーラブルなソリューションを提供する。
関連論文リスト
- Multimodal Large Language Models with Adaptive Preference Optimization for Sequential Recommendation [60.33386541343322]
本稿では,Hardness-Aware とNoNoRec (HaNoRec) を併用したマルチモーダル大規模言語モデルフレームワークを提案する。
具体的には、HaNoRecは、各トレーニングサンプルの予測硬度とポリシーモデルのリアルタイム応答性の両方に基づいて、最適化重量を動的に調整する。
論文 参考訳(メタデータ) (2025-11-24T04:10:46Z) - Few-Shot, No Problem: Descriptive Continual Relation Extraction [27.296604792388646]
AIシステムが現実世界のドメインにおける進化する関係を識別し、適応できるようにする上で、わずかなショットの連続関係抽出は重要な課題である。
従来のメモリベースのアプローチは、しばしば限られたサンプルに過度に適合し、古い知識の強化に失敗する。
本稿では,関係関係記述を生成するために,大規模言語モデルから始まる新しい検索ベースソリューションを提案する。
論文 参考訳(メタデータ) (2025-02-27T23:44:30Z) - Rethinking Relation Extraction: Beyond Shortcuts to Generalization with a Debiased Benchmark [53.876493664396506]
ベンチマークは、機械学習アルゴリズムのパフォーマンスの評価、比較の促進、優れたソリューションの特定に不可欠である。
本稿では,関係抽出タスクにおけるエンティティバイアスの問題に対処する。
本稿では,エンティティの代替によって,エンティティ参照と関係型との擬似相関を破る不偏関係抽出ベンチマークDREBを提案する。
DREBの新たなベースラインを確立するために,データレベルとモデルトレーニングレベルを組み合わせたデバイアス手法であるMixDebiasを導入する。
論文 参考訳(メタデータ) (2025-01-02T17:01:06Z) - Improving Long Tailed Document-Level Relation Extraction via Easy
Relation Augmentation and Contrastive Learning [66.83982926437547]
我々は,DocREが現実のシナリオにおいて,長期分布問題の緩和に不可欠であると主張する。
長期分布問題に動機付けられ,DocREを改善するための簡易関係拡張法(ERA)を提案する。
論文 参考訳(メタデータ) (2022-05-21T06:15:11Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Distantly-Supervised Long-Tailed Relation Extraction Using Constraint
Graphs [16.671606030727975]
本稿では,関係ラベル間の依存関係をモデル化するための制約グラフを提案する。
また,2つの課題を同時に扱うために,制約グラフに基づく関係抽出フレームワーク(CGRE)を提案する。
CGREはグラフ畳み込みネットワーク(GCN)を用いて、データリッチな関係ノードからデータ貧弱な関係ノードへ情報を伝達する。
論文 参考訳(メタデータ) (2021-05-24T12:02:32Z) - RH-Net: Improving Neural Relation Extraction via Reinforcement Learning
and Hierarchical Relational Searching [2.1828601975620257]
本稿では、強化学習と階層型関係探索モジュールを用いて関係抽出を改善するRH-Netという新しいフレームワークを提案する。
次に、データリッチクラスとデータポーアクラス間の相関インスタンスのセマンティクスを共有する階層的関係探索モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-27T12:50:27Z) - Improving Long-Tail Relation Extraction with Collaborating
Relation-Augmented Attention [63.26288066935098]
本稿では,ニューラルネットワーク,コラボレーティング・リレーショナル・アテンション(CoRA)を提案する。
一般的なベンチマークデータセットNYTの実験では、提案されたCoRAは、最先端のパフォーマンスを大きなマージンで改善する。
論文 参考訳(メタデータ) (2020-10-08T05:34:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。