論文の概要: Joint Extraction of Uyghur Medicine Knowledge with Edge Computing
- arxiv url: http://arxiv.org/abs/2401.07009v1
- Date: Sat, 13 Jan 2024 08:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 20:21:30.295306
- Title: Joint Extraction of Uyghur Medicine Knowledge with Edge Computing
- Title(参考訳): エッジコンピューティングによるウイグル医学知識の同時抽出
- Authors: Fan Lu, Quan Qi, Huaibin Qin
- Abstract要約: CoEx-Bertはエッジコンピューティングにおけるパラメータ共有を伴う共同抽出モデルである。
ウグルの伝統的な医療データセットでは、精度、リコール、F1スコアはそれぞれ90.65%、92.45%、91.54%である。
- 参考スコア(独自算出の注目度): 1.4223082738595538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical knowledge extraction methods based on edge computing deploy deep
learning models on edge devices to achieve localized entity and relation
extraction. This approach avoids transferring substantial sensitive data to
cloud data centers, effectively safeguarding the privacy of healthcare
services. However, existing relation extraction methods mainly employ a
sequential pipeline approach, which classifies relations between determined
entities after entity recognition. This mode faces challenges such as error
propagation between tasks, insufficient consideration of dependencies between
the two subtasks, and the neglect of interrelations between different relations
within a sentence. To address these challenges, a joint extraction model with
parameter sharing in edge computing is proposed, named CoEx-Bert. This model
leverages shared parameterization between two models to jointly extract
entities and relations. Specifically, CoEx-Bert employs two models, each
separately sharing hidden layer parameters, and combines these two loss
functions for joint backpropagation to optimize the model parameters.
Additionally, it effectively resolves the issue of entity overlapping when
extracting knowledge from unstructured Uyghur medical texts by considering
contextual relations. Finally, this model is deployed on edge devices for
real-time extraction and inference of Uyghur medical knowledge. Experimental
results demonstrate that CoEx-Bert outperforms existing state-of-the-art
methods, achieving accuracy, recall, and F1 scores of 90.65\%, 92.45\%, and
91.54\%, respectively, in the Uyghur traditional medical literature dataset.
These improvements represent a 6.45\% increase in accuracy, a 9.45\% increase
in recall, and a 7.95\% increase in F1 score compared to the baseline.
- Abstract(参考訳): エッジコンピューティングに基づく医療知識抽出手法は,エッジデバイス上で深層学習モデルを展開し,局所的な実体と関係抽出を実現する。
このアプローチは、重要な機密データをクラウドデータセンタに転送することを避け、医療サービスのプライバシを効果的に保護する。
しかし、既存の関係抽出法は主に、エンティティ認識後に決定されたエンティティ間の関係を分類するシーケンシャルパイプラインアプローチを採用している。
このモードは、タスク間のエラー伝搬、二つのサブタスク間の依存関係の考慮不足、文内の異なる関係間の相互関係の無視といった課題に直面している。
これらの課題に対処するために、エッジコンピューティングにおけるパラメータ共有を伴う結合抽出モデルCoEx-Bertを提案する。
このモデルは2つのモデル間の共通パラメータ化を利用して、実体と関係を共同で抽出する。
具体的には、coex-bertは2つのモデルを採用し、それぞれが隠れた層パラメータを共有し、これら2つの損失関数を組み合わせて、モデルパラメータを最適化する。
さらに、文脈関係を考慮し、非構造化ウイグル医学テキストから知識を抽出する際のエンティティ重複の問題を効果的に解決する。
最後に、このモデルはエッジデバイス上にデプロイされ、uyghur医療知識のリアルタイム抽出と推論を行う。
実験結果から,CoEx-Bertはユグル伝統医学文献データセットにおいて,既存の最先端手法より優れ,精度,リコール,F1スコアが90.65\%,92.45\%,91.54\%であった。
これらの改善は精度が6.45\%、リコールが9.45\%、F1スコアがベースラインに比べて7.95\%向上したことを示している。
関連論文リスト
- Entity or Relation Embeddings? An Analysis of Encoding Strategies for
Relation Extraction [22.469469997734965]
関係抽出は、本質的にはテキスト分類問題であり、事前学習言語モデル(LM)を微調整することで取り組める。
既存のアプローチでは、LMを微調整して頭と尾のエンティティの埋め込みを学習し、それらのエンティティの埋め込みから関係を予測する。
本稿では,より直接的な方法で関係を捉えることにより,関係抽出モデルを改善することができるという仮説を立てる。
論文 参考訳(メタデータ) (2023-12-18T09:58:19Z) - Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation
for Time Series [49.992908221544624]
時系列データは、しばしば多くの欠落した値を示し、これは時系列計算タスクである。
従来の深層学習法は時系列計算に有効であることが示されている。
本研究では,不確実性のある高精度な計算を行う非生成時系列計算法を提案する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Dealing with negative samples with multi-task learning on span-based
joint entity-relation extraction [0.7252027234425334]
近年のスパン型関節抽出モデルでは, 実体認識と関係抽出の両面で有意な優位性を示した。
本稿では,スパンベースマルチタスク・エンティティ・リレーション・ジョイント抽出モデルを提案する。
論文 参考訳(メタデータ) (2023-09-18T12:28:46Z) - CARE: Co-Attention Network for Joint Entity and Relation Extraction [0.0]
本稿では,共同エンティティと関係抽出のためのコ・アテンション・ネットワークを提案する。
提案手法では,サブタスク毎に異なる表現を学習するための並列符号化方式を採用する。
このアプローチのコアとなるのは,2つのサブタスク間の双方向のインタラクションをキャプチャするコアテンションモジュールです。
論文 参考訳(メタデータ) (2023-08-24T03:40:54Z) - HIORE: Leveraging High-order Interactions for Unified Entity Relation
Extraction [85.80317530027212]
本稿では,統合エンティティ関係抽出のための新しい手法であるHIOREを提案する。
重要な洞察は、単語ペア間の複雑な関連を活用することである。
実験の結果,HIOREは従来最高の統一モデルよりも1.11.8 F1ポイント向上した。
論文 参考訳(メタデータ) (2023-05-07T14:57:42Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - D-REX: Dialogue Relation Extraction with Explanations [65.3862263565638]
この研究は、部分的にラベル付けされたデータのみを使用しながら関係が存在することを示す説明を抽出することに焦点を当てている。
本稿では,政策誘導型半教師付きアルゴリズムD-REXを提案する。
約90%の人は、強いBERTに基づく関節関係抽出と説明モデルよりもD-REXの説明を好んでいる。
論文 参考訳(メタデータ) (2021-09-10T22:30:48Z) - Techniques for Jointly Extracting Entities and Relations: A Survey [31.759798455009253]
伝統的に、関係抽出は「パイプライン」の方法で実体抽出後に行われる。
共同実行エンティティと関係抽出は、両方のタスクに有益であることが観察された。
論文 参考訳(メタデータ) (2021-03-10T15:18:24Z) - A Trigger-Sense Memory Flow Framework for Joint Entity and Relation
Extraction [5.059120569845976]
結合エンティティと関係抽出のためのTriMF(Trigger-Sense Memory Flow Framework)を提案する。
エンティティ認識と関係抽出タスクで学習したカテゴリ表現を記憶するためのメモリモジュールを構築する。
また,エンティティ認識と関係抽出の双方向インタラクションを強化するために,多レベルメモリフロー注目機構を設計する。
論文 参考訳(メタデータ) (2021-01-25T16:24:04Z) - Cross-Supervised Joint-Event-Extraction with Heterogeneous Information
Networks [61.950353376870154]
Joint-event- Extractは、トリガとエンティティのタグからなるタグセットを備えたシーケンスからシーケンスまでのラベリングタスクである。
トリガやエンティティの抽出を交互に監督するクロススーパーバイザードメカニズム(CSM)を提案する。
我々の手法は、エンティティとトリガー抽出の両方において最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-13T11:51:17Z) - Relabel the Noise: Joint Extraction of Entities and Relations via
Cooperative Multiagents [52.55119217982361]
協調型マルチエージェント群を用いて,雑音の多いインスタンスを処理するための共同抽出手法を提案する。
ノイズの多いインスタンスをきめ細かな方法で処理するために、協調グループの各エージェントは、自身の視点で連続的な信頼スコアを算出してインスタンスを評価する。
信頼度コンセンサスモジュールは、すべてのエージェントの知恵を収集し、信頼度ラベル付きラベルでノイズの多いトレーニングセットを再分割するように設計されている。
論文 参考訳(メタデータ) (2020-04-21T12:03:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。