論文の概要: Adaptive Ordered Information Extraction with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2306.10787v1
- Date: Mon, 19 Jun 2023 08:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 18:25:04.290192
- Title: Adaptive Ordered Information Extraction with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習を用いた適応順序情報抽出
- Authors: Wenhao Huang, Jiaqing Liang, Zhixu Li, Yanghua Xiao, Chuanjun Ji
- Abstract要約: 本稿では、異なるインスタンスに対して最適な要素抽出順序を求めるために、新しい適応順序付きIEパラダイムを提案する。
また,各インスタンスに対して最適な抽出順序を動的に生成するための強化学習に基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.76901412962578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information extraction (IE) has been studied extensively. The existing
methods always follow a fixed extraction order for complex IE tasks with
multiple elements to be extracted in one instance such as event extraction.
However, we conduct experiments on several complex IE datasets and observe that
different extraction orders can significantly affect the extraction results for
a great portion of instances, and the ratio of sentences that are sensitive to
extraction orders increases dramatically with the complexity of the IE task.
Therefore, this paper proposes a novel adaptive ordered IE paradigm to find the
optimal element extraction order for different instances, so as to achieve the
best extraction results. We also propose an reinforcement learning (RL) based
framework to generate optimal extraction order for each instance dynamically.
Additionally, we propose a co-training framework adapted to RL to mitigate the
exposure bias during the extractor training phase. Extensive experiments
conducted on several public datasets demonstrate that our proposed method can
beat previous methods and effectively improve the performance of various IE
tasks, especially for complex ones.
- Abstract(参考訳): 情報抽出(IE)は広く研究されている。
既存のメソッドは常に、イベント抽出のような1つのインスタンスで複数の要素を抽出できる複雑なieタスクの固定抽出順序に従う。
しかし、いくつかの複雑なIEデータセットの実験を行い、異なる抽出順序が多くのインスタンスの抽出結果に顕著に影響を及ぼし、抽出順序に敏感な文の割合がIEタスクの複雑さとともに劇的に増加するのを観察する。
そこで本稿では,異なるインスタンスの最適要素抽出順序を求める新しい適応順序ieパラダイムを提案し,最適な抽出結果を得る。
また,各インスタンスの最適抽出順序を生成するための強化学習(rl)ベースのフレームワークを提案する。
さらに,抽出器訓練段階における露光バイアスを軽減するため,RLに適応した協調学習フレームワークを提案する。
いくつかの公開データセットで行った広範囲な実験は、提案手法が以前の手法を上回ることができ、特に複雑なデータに対して様々なieタスクのパフォーマンスを効果的に改善できることを示している。
関連論文リスト
- Mixture of Efficient Diffusion Experts Through Automatic Interval and Sub-Network Selection [63.96018203905272]
本稿では, 事前学習した拡散モデルを用いて, 効率の良い専門家の混入を図り, サンプリングコストを削減することを提案する。
提案手法であるDiffPruningの有効性を,複数のデータセットで示す。
論文 参考訳(メタデータ) (2024-09-23T21:27:26Z) - Adaptive Reinforcement Learning Planning: Harnessing Large Language Models for Complex Information Extraction [14.982446379660633]
大規模言語モデル(LLM)に関する既存の研究は、多段階計画により情報抽出タスクを解くことができることを示している。
複雑な抽出タスクを分解して段階的に抽出することで,LLMの性能を効果的に向上させることができる。
本稿では,LLMに基づく情報抽出のための2段階多段階手法を提案し,多段階計画を実行するためにRLフレームワークを採用する。
論文 参考訳(メタデータ) (2024-06-17T12:11:01Z) - Decompose, Enrich, and Extract! Schema-aware Event Extraction using LLMs [45.83950260830323]
この作業は、イベント抽出を自動化するために、大規模言語モデルを活用することに焦点を当てている。
タスクをイベント検出とイベント引数抽出に分解することで、幻覚に対処する新しい方法が導入された。
論文 参考訳(メタデータ) (2024-06-03T06:55:10Z) - Prompt Optimization with EASE? Efficient Ordering-aware Automated Selection of Exemplars [66.823588073584]
大規模言語モデル(LLM)は、現実世界のアプリケーションで印象的な機能を示している。
これらの卓越した作品の品質は、パフォーマンスに大きな影響を与えます。
既存の方法は、先行注文がパフォーマンスに与える影響を適切に説明できない。
論文 参考訳(メタデータ) (2024-05-25T08:23:05Z) - Enhancing Large Language Model with Decomposed Reasoning for Emotion
Cause Pair Extraction [13.245873138716044]
Emotion-Cause Pair extract (ECPE) は、感情とその原因を表す節対を文書で抽出する。
近年の成果から着想を得て,大規模言語モデル(LLM)を活用してECPEタスクに追加のトレーニングを加えることなく対処する方法について検討した。
人間の認知過程を模倣するチェーン・オブ・シントを導入し,Decomposed Emotion-Cause Chain (DECC) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T10:20:01Z) - Diversified Outlier Exposure for Out-of-Distribution Detection via
Informative Extrapolation [110.34982764201689]
Out-of-Distribution(OOD)検出は、現実のアプリケーションに信頼性の高い機械学習モデルをデプロイするために重要である。
近年, 外部曝露によるOOD検出に有意な結果が得られた。
本稿では,補助外乱量に基づく情報外挿による効果的なOOD検出のための新しい枠組み,すなわちDivOE(Diversified Outlier Exposure)を提案する。
論文 参考訳(メタデータ) (2023-10-21T07:16:09Z) - Learning Better with Less: Effective Augmentation for Sample-Efficient
Visual Reinforcement Learning [57.83232242068982]
データ拡張(DA)は、ビジュアル強化学習(RL)アルゴリズムのサンプル効率を高める重要な手法である。
サンプル効率のよい視覚的RLを実現する上で, DAのどの属性が有効かは明らかになっていない。
本研究は,DAの属性が有効性に与える影響を評価するための総合的な実験を行う。
論文 参考訳(メタデータ) (2023-05-25T15:46:20Z) - Guided Exploration of Data Summaries [24.16170440895994]
有用な要約は k 個の単体一様集合を含み、それらは集合的に多様であり、代表的である。
このような要約を見つけることは、データが非常に多様で大規模な場合、難しい作業である。
本研究では,データ要約への探索データ解析(EDA)の適用性について検討し,Eda4Sumを定式化する。
論文 参考訳(メタデータ) (2022-05-27T13:06:27Z) - Improving Multi-Document Summarization through Referenced Flexible
Extraction with Credit-Awareness [21.037841262371355]
MDS(Multi-Document Summarization)における注目すべき課題は、入力の非常に長い長さである。
本稿では,この問題を克服するための抽出・抽出・吸収変換器フレームワークを提案する。
擬似抽出オラクルにない文の不等式の重要性をモデルに認識させる損失重み付け機構を提案する。
論文 参考訳(メタデータ) (2022-05-04T04:40:39Z) - SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation [72.58308581812149]
そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
論文 参考訳(メタデータ) (2021-12-06T08:38:38Z) - Learning Dexterous Manipulation from Suboptimal Experts [69.8017067648129]
相対エントロピーQラーニング(Relative Entropy Q-Learning、REQ)は、オフラインおよび従来のRLアルゴリズムのアイデアを組み合わせた単純なポリシーアルゴリズムである。
本稿では、REQが、デモから一般の政治外RL、オフラインRL、およびRLにどのように有効であるかを示す。
論文 参考訳(メタデータ) (2020-10-16T18:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。