論文の概要、ライセンス

# (参考訳) 「大麻にかかわるうつ病ですか。」 「限定監督による実体・関係抽出のための知識融合モデル」 [全文訳有]

"Is depression related to cannabis?": A knowledge-infused model for Entity and Relation Extraction with Limited Supervision ( http://arxiv.org/abs/2102.01222v1 )

ライセンス: CC BY 4.0
Kaushik Roy, Usha Lokala, Vedant Khandelwal, and Amit Sheth(参考訳) 精神の健康を改善するための大麻の使用の利点を強く宣伝し、大麻の合法化が立法府の優先事項である。 しかし、予備的な科学的研究は、大麻と精神の健康の改善を決定づけるものではない。 本研究では、大麻の個人的使用を含む標的ソーシャルメディアコーパスにおける大麻の抑うつと消費の関係を検討し、その潜在的な精神的健康上の利益を導き出そうとする。 ドメインの専門家がアノテートした3つのカテゴリ(理由、効果、中毒)に関連付けられたツイートを使用します。 最先端の自然ランガウジ処理技術は、大麻のフレーズとうつ病指標の間のこれらの関係の抽出に不足します。 本研究は,精神疾患の診断・統計マニュアルを付加した依存症用薬物乱用オントロジーを精神保健に応用し,その限界に対処することを目的とする。 ドメインエキスパートの時間が限られているためアノテーションが不足しているため、広範囲のコーパスで訓練されたGPT-3とともに教師付きコントラスト学習を使用して、限られた監督下でもパフォーマンスの向上を実現している。 実験の結果,本手法は最先端の関係抽出装置よりも大麻-うつ病関係を有意に抽出できることが判明した。 良質なアノテーションは、科学コミュニティが大麻とうつ病の関連性をよりよく理解するために使用できる学習表現を使用して、近隣のアプローチで提供することができる。

With strong marketing advocacy of the benefits of cannabis use for improved mental health, cannabis legalization is a priority among legislators. However, preliminary scientific research does not conclusively associate cannabis with improved mental health. In this study, we explore the relationship between depression and consumption of cannabis in a targeted social media corpus involving personal use of cannabis with the intent to derive its potential mental health benefit. We use tweets that contain an association among three categories annotated by domain experts - Reason, Effect, and Addiction. The state-of-the-art Natural Langauge Processing techniques fall short in extracting these relationships between cannabis phrases and the depression indicators. We seek to address the limitation by using domain knowledge; specifically, the Drug Abuse Ontology for addiction augmented with Diagnostic and Statistical Manual of Mental Disorders lexicons for mental health. Because of the lack of annotations due to the limited availability of the domain experts' time, we use supervised contrastive learning in conjunction with GPT-3 trained on a vast corpus to achieve improved performance even with limited supervision. Experimental results show that our method can significantly extract cannabis-depression relationships better than the state-of-the-art relation extractor. High-quality annotations can be provided using a nearest neighbor approach using the learned representations that can be used by the scientific community to understand the association between cannabis and depression better.
公開日: Mon, 1 Feb 2021 23:02:43 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
"Is depression related to cannabis? 「大麻にかかわるうつ病ですか。」 0.61
": A knowledge-infused model for Entity and Relation Extraction with Limited Supervision Kaushik Roya, Usha Lokalaa, Vedant Khandelwala and Amit Shetha 「限定監修Kaushik Roya、Usha Lokalaa、Vedant Khandelwala、Amit Shethaによる実体・関係抽出のための知識融合モデル
訳抜け防止モード: 「知識」 : 限られたスーパービジョン・カシク・ロヤによるエンティティと関係抽出のための融合モデル Usha Lokalaa, Vedant Khandelwala, Amit Shetha
0.84
aArtificial Intelligence Institute, University of South Carolina, Columbia aArtificial Intelligence Institute, University of South Carolina, Columbia (英語) 0.88
Abstract With strong marketing advocacy of the benefits of cannabis use for improved mental health, cannabis legalization is a priority among legislators. 精神衛生改善のための大麻の使用の利点を強く宣伝するマーケティングの主張を要約すると、大麻の合法化は立法府の優先事項である。 0.59
However, preliminary scientific research does not conclusively associate cannabis with improved mental health. しかし、予備的な科学的研究は、大麻と精神の健康の改善を決定づけるものではない。 0.52
In this study, we explore the relationship between depression and consumption of cannabis in a targeted social media corpus involving personal use of cannabis with the intent to derive its potential mental health benefit. 本研究では、大麻の個人的使用を含む標的ソーシャルメディアコーパスにおける大麻の抑うつと消費の関係を検討し、その潜在的な精神的健康上の利益を導き出そうとする。 0.70
We use tweets that contain an association among three categories annotated by domain experts - Reason, Effect, and Addiction. ドメインの専門家がアノテートした3つのカテゴリ(理由、効果、中毒)に関連付けられたツイートを使用します。 0.58
The state-of-the-art Natural Langauge Processing techniques fall short in extracting these relationships between cannabis phrases and the depression indicators. 最先端の自然ランガウジ処理技術は、大麻のフレーズとうつ病指標の間のこれらの関係の抽出に不足します。 0.51
We seek to address the limitation by using domain knowledge; specifically, the Drug Abuse Ontology for addiction augmented with Diagnostic and Statistical Manual of Mental Disorders lexicons for mental health. 本研究は,精神疾患の診断・統計マニュアルを付加した依存症用薬物乱用オントロジーを精神保健に応用し,その限界に対処することを目的とする。 0.72
Because of the lack of annotations due to the limited availability of the domain experts’ time, we use supervised contrastive learning in conjunction with GPT-3 trained on a vast corpus to achieve improved performance even with limited supervision. ドメインエキスパートの時間が限られているためアノテーションが不足しているため、巨大なコーパスでトレーニングされたGPT-3と併用して教師付きコントラスト学習を使用して、限られた監督下でもパフォーマンスの向上を実現しています。 0.58
Experimental results show that our method can significantly extract cannabis-depression relationships better than the state-of-the-art relation extractor. 実験の結果,本手法は最先端の関係抽出装置よりも大麻-うつ病関係を有意に抽出できることが判明した。 0.55
High-quality annotations can be provided using a nearest neighbor approach using the learned representations that can be used by the scientific community to understand the association between cannabis and depression better. 良質なアノテーションは、科学コミュニティが大麻とうつ病の関連性をよりよく理解するために使用できる学習表現を使用して、近隣のアプローチで提供することができる。 0.65
Keywords Mental Health, Depression, Cannabis Crisis, Legalization, knowledge infusion, Relation Extraction キーワード:メンタルヘルス、うつ病、大麻危機、合法化、知識注入、関係抽出 0.73
1. Introduction Many states in the US have legalized the medical use of cannabis for therapeutic relief in those affected by Mental Illness [1] [2, 3]. 1. はじめに米国の多くの州では、精神疾患の影響を受ける患者の治療救済のための大麻の使用を合法化した([2, 3])。 0.81
The use of cannabis for depression, however, is not authorized yet [4]. しかし、うつ病に対する大麻の使用は、まだ認可されていない[4]。 0.71
Depression is ubiquitous among the US population, and some even use cannabis to self treat their depression[5][6]. うつ病は米国人口の間で普遍的であり、大麻を使ってうつ病を自己治療する人もいます[5][6]。 0.71
Therefore, scientific research that can help understand the association between depression and cannabis consumption is of the utmost need given the fast increasing cases of depression in the US and consequent cannabis consumption [7]. したがって、米国におけるうつ病の急速な増加とそれに伴う大麻の消費を考えると、うつ病と大麻の消費の関係を理解するのに役立つ科学的研究が最も必要です[7]。 0.74
Twitter can provide crucial contextual knowledge in understanding the usage patterns of cannabis consumption concerning depression [8, 9]. twitterはうつ病に関する大麻の使用パターンを理解する上で重要な文脈知識を提供することができます [8, 9]。 0.67
Conversations on social media such as Twitter provide unique insights as tweets are often unfiltered and honest in disclosing consumption patterns due to the anonymity and private space afforded to the users. Twitterなどのソーシャルメディアでの会話は、ツイートがしばしば匿名性やユーザーに提供されるプライベートスペースのために消費パターンの開示に無フィルターで正直であるため、ユニークな洞察を提供します。 0.69
For now, even with several platforms available to aid the analysis of depression concerning cannabis consumption, this understanding remains 現時点では、大麻消費に関するうつ病の分析に役立つプラットフォームがいくつかあるが、この理解は依然として残っている。
訳抜け防止モード: 今のところは 大麻の消費に関する抑うつの分析を支援するいくつかのプラットフォーム。 この理解は
0.62
In A. Martin, K. Hinkelmann, H.-G. A. Martin, K. Hinkelmann, H.-G。 0.86
Fill, A. Gerber, D. Lenat, R. Stolle, F. van Harmelen (Eds. フィル, A. Gerber, D. Lenat, R. Stolle, F. van Harmelen (Eds。 0.93
), Proceedings of the AAAI 2021 Spring Symposium on Combining Machine Learning and knowledge Engineering (AAAI-MAKE 2021) - Stanford University, Palo Alto, California, USA, March 22-24, 2021. " AAAI 2021 Spring Symposium on Combining Machine Learning and Knowledge Engineering (AAAI-MAKE 2021) - スタンフォード大学、カリフォルニア州パロアルト校、2021年3月22-24日。
訳抜け防止モード: AAAI 2021 Spring Symposium on Combining Machine Learningの進捗状況 そして知識工学(AAAI - MAKE 2021) - スタンフォード大学。 パロ・アルト, カリフォルニア州, 米国, 3月22日 - 2021年3月24日。
0.80
kaushikr@email.sc.ed u (K. Roy); Nlokala@email.sc.edu (U. Lokala); vedant@mailbox.sc.ed u (V. Khandelwal); amit@sc.edu (A. Sheth) (cid:18) kaushikr@email.sc.ed u (K.Roy); Nlokala@email.sc.edu (U.Lokala); vedant@mailbox.sc.ed u (V.Khandelwal); amit@sc.edu (A. Sheth) (cid:18) 0.77
© 2021 Copyright for this paper by its authors. © 2021 著者によるこの論文の著作権。 0.80
Use permitted under Creative Commons License Attribution 4.0 International (CC BY 4.0). Creative Commons License Attribution 4.0 International (CC BY 4.0)で許可された使用。 0.78
CEUR Workshop Proceedings (CEUR-WS.org) CEUR Workshop Proceedings (CEUR-WS.org) 0.75
1 2 0 2 b e F 1 1 2 0 2 b e F 1 0.85
] L C . s c [ ] L C。 sc [ 0.62
1 v 2 2 2 1 0 1 v 2 2 2 1 0 0.85
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
CEURWorkshopProceedi ngshttp://ceur-ws.or gISSN 1613-0073 CEURWorkshopProceedi ngshttp://ceur-ws.or gISSN 1613-0073 0.39
英語(論文から抽出)日本語訳スコア
ambiguous [10, 11, 12]. 曖昧[10, 11, 12]. 0.70
Still, encouragingly there is support in the literature to show that cannabis use can be potentially associated with depressive patterns. それでも、大麻の使用が抑うつパターンと潜在的に関連付けることができることを示すために文献で支援があります。 0.58
Hence, we aim to extract this association as one of three relationships annotated by domain experts: Reason, Effect, and Addiction (Table 1). したがって、ドメインの専門家が注釈付けした3つの関係のうちの1つとして、Reason, Effect, Addiction (Table 1) を抽出することを目指している。 0.59
Relationship Tweet Reason Effect 関係ツイート 理由 効果 0.69
Addiction “-Not saying im cured, but i feel less depressed lately, could be my #CBD oil supplement." 中毒 「私は治ったとは言わないが、最近は落ち込んでいない。私の#cbdオイルサプリメントかもしれない。」 0.54
“-People will smoke weed and be on antidepressants. 人々は雑草を吸って抗うつ薬を飲みます。 0.61
It’s a clash!Weed is what is making you depressed." それは衝突です!雑草はあなたが落ち込んでいるものです」。 0.62
“-The lack of weed in my life is depression as hell." 「私の人生に雑草の欠如は地獄のように憂鬱である。」 0.70
Table 1 cannabis-depression Tweets and their relationships. 表1 大麻抑圧ツイートとその関係。 0.69
Here the text in the blue and red represents the cannabis and depression entities respectively. ここで青と赤のテキストは、それぞれ大麻とうつ病の実体を表す。 0.72
The paper studies mental health and its relationship with cannabis usage, which is a significant research problem. 本稿は,精神の健康と大麻使用との関係について検討し,重要な研究課題である。 0.67
The study will help address several health challenges such “as the investigation of cannabis for the treatment of depression”,” as a reason for depression” or “as an addictive phenomenon that accompanies depression”. この研究は、うつ病の理由として「うつ病の治療のための大麻の調査」や「うつ病に付随する中毒性現象」など、いくつかの健康上の課題に対処するのに役立つ。 0.65
Extracting relationships between any concepts/slang-terms /synonyms/street-nam es related to ‘cannabis,’ and ‘depression,’ from text is a tough problem. slang-terms/synonyms /street-namesと‘cannabis’および‘depression’の関係をテキストから抽出することは難しい問題である。 0.77
This task is challenging for traditional Natural Language Processing (NLP) because of the immense variability with which tweets mentioning depression and cannabis are described. 従来の自然言語処理(NLP)では,抑うつや大麻に言及するツイートが多岐にわたるため,この課題は困難である。 0.74
Here, we make use of the Drug Abuse Ontology (DAO) [13, 14] which is a domain-specific hierarchical framework containing 315 entities (814 instances) and 31 relations defining concepts about drug-abuse. ここでは,薬物乱用オントロジー(DAO)[13,14]を用いて,薬物乱用に関する概念を定義する315の実体(814のインスタンス)と31の関連性を含むドメイン固有の階層的枠組みを提案する。 0.75
The ontology has been used in prior work to analyze the effects of cannabis [15, 16, 17]. このオントロジーは、大麻 [15, 16, 17] の影響を分析するために以前の研究で使用されています。
訳抜け防止モード: オントロジーは以前の作品で使われてきた 大麻[15, 16, 17]の効果を分析するためです
0.79
DAO was augmented using Patient Health Questionnaire 9th edition (PHQ-9), Systematized Nomenclature of Medicine - Clinical Terms (SNOMED-CT), International Classificatio of Diseases 10th edition (ICD10), Medical Subject Headings (MeSH) Terms, and Diagnostic and Statistical Manual for Mental Disorders (DSM-5) categories to infuse knowledge of mental health-related phrases in association with drugs such as cannabis [18][19]. DAOは、患者健康アンケート9版(PHQ-9)、SNOMED-CT(Systematiz ed Nomenclature of Medicine - Clinical Terms)、ICD10(International Classificatio of Diseases 10th Edition)、MeSH(Medical Subject Headings)用語、DSM-5(Diagnostic and Statistical Manual for Mental Disorders)カテゴリーを使用して、大麻などの薬物に関連するメンタルヘルス関連フレーズの知識を注入するために拡張されました[18][19]。 0.82
Some of the triples extracted from the DAO are as follows: (1) SCRA DAOから抽出されたトリプルのいくつかは以下の通りである。 0.64
→ subClassOf→ Cannabis; (2) Cannabis_Resin→ has_slang_term→ Kiff; (3) Marijuana_Flower → type→ Natural_Cannabis. (2) cannabis_resin→ has_slang_term→kiff; (3) marijuana_flower → type→ natural_cannabis。 0.75
For entity and relationship extraction (RE), previous approaches generally adopt deep learning models [20] [21]. エンティティと関係抽出(re)では、従来のアプローチでは一般的にディープラーニングモデル[20][21]を採用する。 0.71
However, these models require a high volume of annotated data and are hence unsuitable for our setting. しかし、これらのモデルは大量の注釈付きデータを必要とするため、我々の設定には適さない。
訳抜け防止モード: しかし、これらのモデルは大量の注釈付きデータを必要とする 設定には不向きです。
0.74
Several pre-trained language representation models have recently advanced the state-of-the-art in various NLP tasks across various benchmarks [22, 23]. いくつかの事前訓練された言語表現モデルは、最近、さまざまなベンチマーク [22, 23] にわたる様々な NLP タスクで最先端の処理を進めています。 0.54
GPT-3 [24], BERT [25] are such language models [26]. GPT-3 [24]、BERT [25]はそのような言語モデル[26]です。 0.80
Language models benefit from the abundant knowledge that they are trained on and, with minimal fine-tuning, can tremendously help in downstream tasks under limited supervision. 言語モデルは、訓練された豊富な知識から恩恵を受け、最小限の微調整で、限られた監督下で下流のタスクに非常に役立つ。 0.63
Hence, we exploit the representation from GPT-3 and employ supervised contrastive learning to deal with limited supervision in terms of quality annotations for the data. したがって,gpt-3の表現を活用し,データの品質アノテーションの観点で限定的な監督を扱うために,教師付きコントラスト学習を用いる。 0.69
We propose a knowledge-infused deep learning framework based on GPT-3 and domain-specific DAO ontology to extract entities and their relationship. GPT-3とドメイン固有DAOオントロジーに基づく知識注入型ディープラーニングフレームワークを提案し,実体とその関係を抽出する。 0.64
Then we further enhance the utilization of limited supervision through the use of supervised contrastive learning. そして,教師付きコントラスト学習を用いて,限られた監督の活用をさらに強化する。 0.60
It is well known that deep understanding requires many examples to generalize. 深い理解には多くの例が必要であることがよく知られています。 0.57
Metric Learning frameworks such as Siamese networks have previously shown how limited supervision can help use contrastive learning with triplet loss [27]. Siameseネットワークのようなメトリクス学習フレームワークは、前もって、三重項損失による対照的学習の使用に限定的な監督がいかに役立つかを示した[27]。 0.63
Combinatorially this method leads to an increase in the number of training examples from an order 組合せ的にこの方法は、順序からトレーニング例の数を増やすことにつながります。 0.73
of𝑛 to𝑛𝐶3, which helps with generalizability. 汎用性に役立つ.ofn tonC3。 0.68
The technique can also exploit the learned metric この技術は学習した計量を活用できる 0.69
space representations to provide high-quality annotations over unlabeled data. ラベルのないデータに対して高品質なアノテーションを提供する空間表現。 0.57
Therefore, the com- そのため、com- 0.68
英語(論文から抽出)日本語訳スコア
bination of knowledge-infusion [28, 29, 30], pre-trained GPT-3, and supervised contrastive learning presents a very effective way to handle limited supervision. 知識注入[28,29,30],事前訓練gpt-3,教師付きコントラスト学習のバイナリ化は,限られた監督を扱う上で非常に効果的な方法である。
訳抜け防止モード: 知識のバイネーション - 注入[28, 29, 30] Pre- trained GPT-3, and supervised contrastive learning is a very effective way to handle limited supervision。
0.88
The proposed model has two modules: (1) Phrase Extraction and Matching Module, which utilizes the DAO ontology augmented with the PHQ-9, SNOMED-CT, ICD-10, MeSH Terms, and Diagnostic and Statistical Manual for Mental Disorders (DSM-5) lexicons to map the input word sequence to the entities mention in the ontology by computing the cosine similarity between the entity names (obtained from the DAO) and every n-gram token of the input sentence. 1) PHQ-9, SNOMED-CT, ICD-10, MeSH Terms, Diagnostic and Statistical Manual for Mental Disorders (DSM-5) lexiconsで拡張されたDAOオントロジーを利用して, DAOから取得される実体名と, 入力文のすべてのnグラムトークンとのコサイン類似性を計算することにより, 入力ワードシーケンスをオントロジーに言及された実体にマップする。 0.69
This step identifies the depression and cannabis phrase in the sentence. このステップは、文中のうつ病と大麻のフレーズを識別する。 0.66
Distributed representation obtained from GPT-3 of the depression phrase and cannabis phrase in the sentence is used to learn the contextualized syntactic and semantic information that complement each other. 文中の抑うつフレーズと大麻フレーズのGPT-3から得られた分散表現を使用して、互いに補完する文脈化された構文および意味情報を学ぶ。 0.72
(2) Supervised Contrastive Learning Module, uses a triplet loss to learn a representation space for the cannabis and depression phrases through supervised contrastive learning. 2)教師付きコントラスト学習モジュールは、教師付きコントラスト学習を通じて大麻およびうつ病のフレーズの表現空間を学習するためにトリプルレット損失を使用する。 0.73
Phases with the correct relationship are trained to be closer in the learned representation space, and phrases with incorrect relationships are far apart. 正しい関係を持つ段階は学習された表現空間に近づくように訓練され、間違った関係を持つフレーズははるかに離れている。 0.70
Contributions: (1) In collaboration with domain experts who provide limited supervision on real-world data extracted from Twitter, we learn a representation space to label the relationships between cannabis and depression entities to generate a cannabis-depression relationship dataset. 貢献:(1)twitterから抽出した実世界データに対する限定的な監督を提供するドメイン専門家と共同で、大麻とうつ病の関係をラベル付けする表現空間を学習し、大麻-抑うつ関係データセットを生成する。 0.67
(2) We propose a knowledge-infused neural model to extract cannabis/depression entities and predict the relationship between those entities. 2)大麻・抑うつ物質を抽出し,それらの関係を予測する知識注入型ニューラルモデルを提案する。 0.67
We exploited domain-specific DAO ontology, which provides better coverage in entity extraction. ドメイン固有のDAOオントロジーを利用して、エンティティ抽出のカバレッジを改善した。 0.41
(3)Further, we use GPT-3 representations in a supervised contrastive learning approach to learn a representation space for the different cannabis and depression phrase relationships due to limited supervision. 3) 教師付きコントラスト学習におけるgpt-3表現を用いて, 異なる大麻と抑うつ句の関係の表現空間を, 限定的な監督によって学習する。 0.73
(4) We evaluated our proposed model on the real world twitter dataset. (4)実世界のtwitterデータセット上で提案モデルを評価した。 0.82
The experimental results show that our model significantly outperforms the state-of-the-art relation extraction techniques by 実験結果から,本モデルが最先端関係抽出技術よりも優れていることが示された。 0.55
> 11% points on the F1 score. >F1得点は11%であった。 0.84
1.1. Novel Contributions of the paper (1) Semantic filtering: We use DAO, DSM-5, to extract contextual phrases expressed implicitly in the user tweet, mentioning Depression and Cannabis. 1.1. 論文の新たなコントリビューション(1)意味的フィルタリング: DAO, DSM-5を用いて, ユーザツイートで暗黙的に表現された文脈的フレーズを抽出し, 抑うつと大麻に言及する。 0.70
This is required for noise-free domain adaptation of the model, as evident in our results. これは、私たちの結果で明らかなように、モデルのノイズフリードメイン適応に必要です。 0.63
(2) We develop a weak supervision pipeline to label the remaining 7000 tweets with three relationships (Reason, Effect, Addiction). 2) 残りの7000ツイートを3つの関係(Reason, Effect, Addiction)でラベル付けする弱い監視パイプラインを構築した。 0.71
(3) We learn a domain-specific distance metric between the phrases, leveraging pre-trained GPT-3 embeddings of the extracted phrases and their relationship, in a supervised contrastive loss training setup. (3) 抽出した句の事前学習したGPT-3埋め込みとそれらの関係を利用して,単語間の領域特異的距離測定を教師付きコントラッシブ・ロス・トレーニング・セットアップで学習する。 0.71
(4) 7000 tweets were annotated and evaluated using the learned metric against the expert annotation with clustering (TSNE). (4) クラスタリング(TSNE)による専門家アノテーションに対する学習指標を用いて, 7000のツイートをアノテートし, 評価した。 0.72
2. Related Works Based on the techniques and their application to health, we discuss recent existing works. 2. 関連作業技術とその健康への応用に基づいて,近年の既存研究について論じる。 0.77
Standard DL approaches based on Convolutional Neural Networks (CNN), and Long Term Short Term Memory (LSTM) networks have been proposed for RE [31] [32, 33]. RE [31] [32, 33]では、Convolutional Neural Networks (CNN)とLong Term Short Term Memory (LSTM)ネットワークに基づく標準DLアプローチが提案されています。 0.85
Hybrid models that combine CNN and LSTM have also been proposed [34]. CNNとLSTMを組み合わせたハイブリッドモデルも提案されています[34]。 0.79
More recently, Graph Convolutional Neural Networks (GCN)’ s have been utilized to leverage additional structural information from dependency trees towards the 最近では、グラフ畳み込みニューラルネットワーク(gcn)のsが、依存関係ツリーから追加の構造情報を活用するために利用されている。
訳抜け防止モード: 最近では、グラフ畳み込みニューラルネットワーク(GCN)が使われている。 依存木からの付加的な構造情報を利用して
0.82
英語(論文から抽出)日本語訳スコア
RE task [35]. REタスク[35]。 0.51
[36] guide the structure of the GCN by modifying the attention mechanism. [36]は注意のメカニズムの変更によってGCNの構造を導きます。 0.81
Adversarial training has also been explored to extract entities and their relationships jointly [37]. 対人訓練は, 実体とその関係を共同で抽出するためにも研究されている[37]。 0.65
Due to the variability in the specification of entities and relationships in natural language, [38, 39] have exploited entity position information in their DL framework. 自然言語におけるエンティティや関係の仕様の多様性のため,[38, 39]はDLフレームワークにおけるエンティティの位置情報を活用している。 0.82
Models have demonstrated state of the art in RE based on the popular BERT language model, BioBERT [40], SciBERT [41], and XLNet Yang et al. モデルは、人気のあるBERT言語モデル、BioBERT [40]、SciBERT [41]、XLNet Yang et alに基づいて、REにおける技術の現状を実証してきた。 0.80
[42]. Task-specific adaptations of BERT have been used to enhance RE in Shi and Lin [43] and Xue et al. [42]. BERT のタスク固有の適応は Shi と Lin [43] および Xue et al における RE の強化に使用されている。 0.72
[44]. Wang et al. [45] augment the BERT model with a structured prediction layer to predict multiple relations in one pass. [44]. 王等。 [45] BERTモデルを構造化予測層で拡張し、1回のパスで複数の関係を予測する。 0.67
In all the approaches discussed so far, knowledge has not been a component of the architecture [46]. これまで議論されたすべてのアプローチにおいて、知識はアーキテクチャの構成要素ではなかった [46]。 0.83
Chan and Roth [47] show the importance of using knowledge to improve RE on sentences by showing an improvement of 3.9% of F1-score incorporating knowledge in an Integer Linear Programming (ILP) formulation.Wen et al. chan と roth [47] は、整数線形計画 (ilp) における知識を組み込んだ f1-score の 3.9% の改善を示し、文の re を改善するために知識を使うことの重要性を示した。 0.72
[48] use the attention weights between entities to guide traversal paths in a knowledge graph to assist RE. 48] エンティティ間の注意重みを使用して、知識グラフのトラバーサルパスをガイドし、REを支援する。 0.68
Distiawan et al. distiawanとal。 0.60
[49] use knowledge graph TransE embeddings in their approach to improving performance. 49] パフォーマンス改善のアプローチで知識グラフ TransE 埋め込みを使用します。 0.77
Some of the other prominent work utilizing knowledge graph for relation extraction is [50, 51, 52]. 関係抽出に知識グラフを利用した他の顕著な研究は [50, 51, 52] である。 0.83
These methods, however, do not consider a setting in which the availability of high-quality annotated data is scarce. しかし、これらの方法は、高品質の注釈付きデータの可用性が乏しい設定を考慮していません。 0.69
We use knowledge to extract relevant parts of the sentence [53, 54] and pretrained GPT-3 representations trained over a massive corpus in conjunction with supervised contrastive learning to achieve a high degree of sample efficiency with limited supervision. 我々は,[53,54]文の関連部分を知識を用いて抽出し,大量のコーパス上で学習したgpt-3表現と教師付きコントラスト学習を併用し,限られた監督で高いサンプル効率を達成する。 0.74
3. Our Approach 3.1. 3. アプローチ3.1。 0.75
Dataset The dataset we have used for our study consists of 11,000 Tweets collected using the twitris API from Jan 2017 to Feb 2019 - determined by three substance use epidemiologists as a period of heightened Cannabis consumption. データセット 私たちの研究で使用したデータセットは、2017年1月から2019年2月までにtwitris APIを使用して収集された11,000のツイートで構成されています。 0.58
The experts annotated 3000 tweets (due to time constraints) with one of 3 relationships that they considered essential to identify: “Reason,” “Effect,” and “Addiction.” The annotation had a Cohen Kappa Agreement of 0.8. 専門家らは、3000のツイートに「Reason」、「Effect」、「Addiction」という3つの関係の1つをアノテートした。このアノテーションはCohen Kappa Agreement 0.8だった。 0.60
Example from each of these different relationships already shown in Table 1 表1に示されているこれらの異なる関係の例 0.83
3.2. Phrase Extraction and Matching We exploit the domain-specific knowledge base to replace the phrases in social media text with the knowledge base concepts under this method. 3.2. フレーズ抽出とマッチングはドメイン固有の知識ベースを利用して,ソーシャルメディアテキストのフレーズを,この手法に基づく知識ベースの概念に置き換える。 0.74
The Phrase Extraction and Matching are performed in several steps, which are: 句抽出とマッチングは、以下のいくつかのステップで実行される。 0.67
• Depression and cannabis Lexicon: We have exploited the state of the art Drug Abuse Ontology (DAO) to extract various medial entities and slang terms related to cannabis and depression. 抑うつと大麻レキシコン:我々は、美術薬物乱用オントロジー(dao)の状況を利用して、大麻やうつ病に関連する様々な媒介物質やスラング語を抽出する。 0.68
We further expand the entities using entities extracted from PHQ-9, SNOMED-CT, ICD-10, MeSH Terms, and Diagnostic and Statistical Manual for Mental Disorders (DSM-5). PHQ-9, SNOMED-CT, ICD-10, MeSH Terms, Diagnostic and Statistical Manual for Mental Disorders (DSM-5) から抽出されたエンティティを用いてエンティティをさらに拡張します。 0.69
• Extracting N-Grams from Tweets: The N-Grams are extracted from the tweets are considered to better understand the context of the terms by taking into consideration the words around it. つぶやきからN-Gramを抽出する: つぶやきからN-Gramを抽出すると、その周りの単語を考慮すれば、その用語の文脈をよりよく理解できると考えられる。 0.57
For example, from the tweet whole world emotionally depressed everybody needs smoke blunt to relax We living nigga, we will obtain ngrams such as whole world, emotionally depressed, depressed everybody, need smoke, need smoke blunt, living nigga. 例えば、全世界が感情的に落ち込んでいるツイートから、誰もがリラックスするために煙の鈍化を必要とします 私たちはニグガを生き、全世界、感情的に落ち込み、落ち込んでいるすべての人、煙を必要とし、煙の鈍化を必要とし、ニグガを生きています。
訳抜け防止モード: たとえば、全世界が感情的に落ち込んでいるツイートから、誰もがリラックスするために煙の鈍い必要があります。 全世界のngram、感情的に落ち込んだngram、 みんなが落ち込んで 煙を吸う 煙を吸う ニグガを生きろ
0.70
英語(論文から抽出)日本語訳スコア
Figure 1: The Phrase extraction and Mapping Pipeline, where the DAO is used to extract GPT-3 representations of the related phrases 図1: DAOを使用して関連するフレーズのGPT-3表現を抽出するPhrase extract and Mapping Pipeline 0.79
• GPT-3:Generative Pre-Trained Transformer 3 is an autoregressive language model. • GPT-3:Generative Pre-Trained Transformer 3は自動回帰型言語モデルです。 0.75
We have used GPT-3 to generate the embedding of the N-Grams generated and the cannabis and depression Phrase because of the vast dataset it is trained on, which provides us the phrases’ embeddings based on its global understanding. 我々は,GPT-3を用いて生成したN-Gramと大麻とうつ病のフレーズの埋め込みを生成した。
訳抜け防止モード: 我々は,GPT-3を用いて生成したN-グラムと大麻および抑うつ用フレーズの埋め込みを生成する。 これにより、グローバルな理解に基づく埋め込みのフレーズが提供されます。
0.68
Cosine Similarity: It is a measure of similarity between two non-zero vectors in a similar vector space. Cosine similarity: 類似ベクトル空間における2つの非零ベクトル間の類似性の尺度である。 0.88
This metric is often used to get a semantic similarity between two phrase embeddings obtained in the same vector space. この計量は、同じベクトル空間で得られる2つのフレーズ埋め込み間の意味的類似性を得るためにしばしば用いられる。 0.74
• Phrase Matching: We use the cosine similarity metric to understand the semantic similarity between the phrases. • フレーズマッチング: フレーズ間の意味的類似性を理解するために、コサイン類似度メトリックを使用する。
訳抜け防止モード: •句マッチング : 句間の意味的類似性を理解するためにコサイン類似度指標を用いる。
0.83
We have taken a threshold of 0.75 or more cosine similarity. 我々は0.75以上のコサイン類似度を採った。 0.80
Once the phrase obtains a similarity value more than or equals the threshold, the original N-Grams from the tweet text are replaced by the matched cannabis/depression Phrase. フレーズがしきい値以上または等しい類似値を取得すると、ツイートテキストから元のN-Gramsが一致する大麻/抑圧フレーズに置き換えられます。 0.76
The above steps are repeated for all the tweets. 上記のステップは、すべてのツイートで繰り返される。 0.83
For example, we would obtain emotionally depressed as the depression phrase, whereas need smoke blunt is found to be the cannabis phrase. 例えば、うつ病の語句として感情的に落ち込むが、大麻の語句には煙の鈍さが求められる。 0.67
3.3. Supervised Contrastive Learning The proposed model architecture is divided into two sub-parts: A) Transformer Block, B) Loss Function. 3.3. 改良されたコントラスト学習 提案されたモデルアーキテクチャは、A) Transformer Block, B) Loss Functionという2つのサブパートに分けられる。 0.69
The input tweet is first sent through a block of 12 transformers, and later the embedding is passed through a triplet loss function. 入力ツイートはまず12の変圧器のブロックを介して送信され、後に埋め込みは三重項損失関数を介して送信される。 0.70
The label associated with the tweet input is used to extract a complimentary sample (a tweet with the same label) and a negative sample (a tweet associated with a different label). ツイート入力に関連付けられたラベルは、補足的なサンプル(同じラベルのツイート)と否定的なサンプル(別のラベルに関連付けられたツイート)を抽出するために使用される。 0.77
These positive and negative samples are sent through a block of 12 transformers to obtain their embedding, which is further passed on to the triplet loss function. これらの陽性および否定的なサンプルは12の変圧器のブロックを通してそして三重項の損失機能に渡される埋め込みを得るために送られます。 0.76
Under the loss, the function tries to achieve a low cosine similarity between the tweet and its negative sample as close to 0. この損失下では、関数は、ツイートとその負のサンプルと0に近い低いコサイン類似性を達成しようとします。 0.77
At the same time, it tries to achieve a high cosine similarity between the tweet and its positive sample as close to 1. 同時に、ツイートとその正のサンプルと1.1に近い高いコサイン類似性を達成しようとします。 0.64
𝐶𝑜𝑆𝑖𝑚(𝐴,𝑃)−𝐶𝑜𝑆𝑖𝑚(𝐴,𝑁)+𝛼≤0 𝐶𝑜𝑆𝑖𝑚(𝐴,𝑃)−𝐶𝑜𝑆𝑖𝑚(𝐴,𝑁)+𝛼≤0 0.92
(1) Where A is the anchor (the initial data point), P is a positive data point which is of the same class as the anchor, N is a negative data point which is of the different class as the anchor. 1) A がアンカー(初期データ点)である場合、P はアンカーと同じクラスである正のデータ点であり、N はアンカーと異なるクラスである負のデータ点である。 0.63
CoSim(X, Y) is the cosine CoSim(X, Y) は cosine である 0.92
similarity between the two data points, and𝛼 is the margin. 2つのデータポイント間の類似性、およびαはマージンです。 0.74
For the example shown in Section 3.2, 3.2に示す例について。 0.67
if we consider the anchor sample to be "whole world emotionally depressed everybody needs smoke blunt relax We living nigga", corresponding to that positive sample is "Depressionarmy weed amp sleep I awake I depressed" and the negative sample would be "This weird rant like weed makes anxiety depression worse Im soooo sick ppl like jus". 仮にアンカーサンプルが「全ての世界が感情的にうつ病に陥っている」と考えていれば、そのポジティブなサンプルは「うつ病兵器の雑草 amp sleep i awake i depressed」であり、負のサンプルは「この雑草のように雑草は不安のうつ病を悪化させ、jusのように病気のpplを悪化させる」ことになる。 0.68
英語(論文から抽出)日本語訳スコア
Figure 2: Supervised Constrastive Learning pipeline using Triplet Loss 図2:Triplet Lossを使用した教師付きコンストラストティブラーニングパイプライン 0.81
4. Experimental Setup and Results In this section, we discuss the results of the task of cannabis and depression RE tasks. 4. 実験的なセットアップと結果 このセクションでは、大麻とうつ病REタスクのタスクの結果について説明します。 0.75
After that, we will also provide a technical interpretation of the results. その後、結果の技術的な解釈も提供します。 0.64
4.1. Results The dataset utilized in our experiment is described in Section-3. 4.1. 結果 実験で利用したデータセットは,第3節に記載した。 0.67
We have used Precision, Recall, and F1 score as the metric to compare our proposed methodology with the state-of-the-art relation extractor. 我々は,提案手法を最先端関係抽出器と比較するために,精度,リコール,F1スコアを用いた。 0.71
As a baseline model, we used BERT, BioBERT, and its various variations such as: ベースラインモデルとして、BERT、BioBERT、および以下の様々なバリエーションを使用しました。 0.67
• BERTPE: We expand the BERT as a position embedding along with the BERT embedding with the position data (the relative distance of the word with cannabis and depression entity) obtained via domain-specific knowledge resource. • bertpe: bertを、ドメイン固有の知識リソースによって得られる位置データ(大麻と抑うつエンティティとの相対距離)とともに、bert埋め込みと共に位置埋め込みとして拡張します。 0.63
• BERTPE+PA: This consists of an additional component of position-aware mechanism along with •BERTPE+PA:これは位置認識機構の追加コンポーネントと合わせて構成される。 0.65
BERTPE. Table-2 Summarises the performance of our model over the baselines. BERTPE 表2 ベースライン上のモデルのパフォーマンスを要約します。 0.64
Our proposed methodology has outperformed all the state of the art models based on the given metrics. 提案手法は, 与えられた測定値に基づいて, 技術モデル全体の性能を向上した。 0.75
As compared to the worst-performing baseline, BioBERT our model achieves an F1 score with an absolute improvement of 12.32%, and with best performing baseline BERTPE+PA it gives an improvement of 11.28% in F1 Score. 最もパフォーマンスの悪いベースラインと比較すると、BioBERTのモデルではF1スコアが12.32%向上し、最高のベースラインBERTPE+PAでF1スコアが11.28%向上した。 0.69
From the above comparison using contrastive learning with knowledge, infused learning can perform better in relation classification. 上記の比較から,知識との対比学習を用いて,関係分類の精度向上を図ることができる。 0.79
Method Precision Recall 方法 高精度リコール 0.72
BERT BioBERT BERTPE BERTPE+PA Proposed Model BERTバイオベルトベルトベルト+PA提案モデル 0.60
64.49 63.97 60.64 65.41 74.6 64.49 63.97 60.64 65.41 74.6 0.44
63.22 62.15 56.51 65.25 76.17 63.22 62.15 56.51 65.25 76.17 0.44
F1Score 63.85 63.06 58.50 64.50 75.37 F1Score 63.85 63.06 58.50 64.50 75.37 0.43
Table 2 Performance comparison of our proposed model with baselines methods 表2 ベースライン法を用いた提案モデルの性能比較 0.82
英語(論文から抽出)日本語訳スコア
4.2. Ablation Study We have performed the ablation study by removing one component from the proposed model, evaluate its performance to understand the impact of various components. 4.2. Ablation Study we have performed the ablation study by remove one component from the proposed model, evaluate its performance to understand the impact of various components。 0.77
Based on the study, we found that, as we remove the contrastive loss function from our learning approach, the model performance significantly drops by 6.46 % F1 Score, 6.53 % Recall, and 6.4 % Precision. 本研究の結果, 学習アプローチからコントラスト損失関数を除去すると, モデル性能が6.46 % F1スコア, 6.53 % Recall, 6.4 % Precision に大幅に低下することが判明した。 0.86
The significant decrease in the model’s performance shows that generating an embedding for two samples of the same class similar and of different classes dissimilar brings in a great advantage to the training of the model. モデルのパフォーマンスの大幅な低下は、同じクラスの2つのサンプルと異なるクラスの2つのサンプルの埋め込みを生成することが、モデルのトレーニングに大きな利点をもたらすことを示している。 0.83
The contrastive loss function allows us to learn the representation of the same classes to be closer to each other in vector space and hence allows us in generating the representation of unlabelled data from the dataset (discussed further, later in this section ) 対照的な損失関数は、ベクトル空間において同じクラスの表現が互いに近接していることを学ぶことができ、したがってデータセットから非競合データの表現を生成することができる(さらに詳しくは後述)。 0.79
We also observe that domain-specific knowledge resource with contextualized embedding trained over a large corpus (GPT-3) is very important. また,大規模コーパス(GPT-3)上で学習した文脈的埋め込みを伴うドメイン固有知識資源が重要であることも確認した。 0.61
As we further remove the second component from our model, we see a total decrease of 9.01 % F1 score, 8.92 % Precision, and 9.11 % recall in the proposed model’s performance. さらにモデルから第2のコンポーネントを取り除いた結果,提案モデルの性能は9.01 % f1スコア,8.92 %精度,9.11 %のリコールを計上した。 0.83
This component was majorly responsible for removing the data’s ambiguity using the phrases from human-curated domain-specific knowledge bases (such as DAO, DSM-5, SNOMED-CT, and others). このコンポーネントは主に、人間が翻訳したドメイン固有の知識ベース(DAO、DSM-5、SNOMED-CTなど)のフレーズを使ってデータのあいまいさを取り除くことに責任を負った。 0.65
Also, the contextualized embedding helped us consider the global representation of the entities present in the dataset and hence contribute to improving the model’s performance. また、コンテキスト化された埋め込みにより、データセットに存在するエンティティのグローバルな表現を検討し、モデルのパフォーマンスの向上に貢献しました。 0.70
69.64 (↓8.6%) 67.06 (↓11.96%) 69.64 (↓8.6%) 67.06 (↓11.96%) 0.62
Recall 76.17 68.91 (↓8.57%) 66.35 (↓11.97%) 76.17 68.91 (↓8.57%) 66.35 (↓11.97%) 0.63
F1-Score 75.37 F1-Score 75.37 0.44
Model Proposed Model (-) Contrastive learning loss (-) knowledge infusion model proposed model (-) contrastive learning loss (-) knowledge infusion (-) 0.63
68.2 (↓8.5%) 65.68 (↓11.9%) 68.2 (↓8.5%) 65.68 (↓11.9%) 0.62
Precision 74.6 Table 3 Ablation Study over the proposed model to evaluate the effect of contrastive learning loss and knowledge infusion in determining the relationship between cannabis and depression 精度74.6 表3 大麻とうつ病との関係決定における対照的学習損失と知識注入の効果を評価するための提案モデル上のアブレーション研究 0.74
Thus, this shows that every component of the proposed model is necessary for the best performing したがって,提案モデルのすべての要素が最善の実行に必要であることを示す。 0.85
results. 4.3. Cluster Analysis After training the model, we annotate the unlabelled data in the dataset by classifying among the three relationships. 結果だ 4.3. クラスタ分析 モデルのトレーニング後、3つの関係を分類することで、データセット内の不一致データをアノテートします。 0.70
We parse the unlabelled tweets from the first module to extract the phrases from the knowledge bases using contextualized embedding. 我々は、最初のモジュールから未ラベルのツイートを解析し、文脈的埋め込みを用いて知識ベースからフレーズを抽出する。
訳抜け防止モード: 最初のモジュールから ラベルなしのつぶやきを解析し 文脈的埋め込みを用いて知識ベースから句を抽出する。
0.75
Later the embeddings are pushed into the proposed model architecture to obtain a representation of the tweets. その後、埋め込みは提案されたモデルアーキテクチャにプッシュされ、ツイートの表現を得る。 0.69
The representation is used to create a cluster of the tweet data points and determine the label of the un-labeled tweets based on the majority of the data points present. この表現は、ツイートデータポイントのクラスタを作成し、現在のデータポイントの大部分に基づいてラベル付けされていないツイートのラベルを決定するために使用されます。 0.64
The representation of the cluster after labeling unlabelled tweets is shown in Figure 3. ラベルのないつぶやきをラベル付けした後のクラスタの表現を図3に示します。 0.66
Some examples from each of the cluster are as follows: 各クラスタからの例は以下の通りである。 0.80
• Reason: 1) Depressionarmy weed amp sleep I awake I depressed, 2) mood smoke blunt except the fact I depressed, 3) weed hits ya RIGHT depression, 4) I smoked weed drank alcohol drowning sorrows away, 5) whole world emotionally depressed everybody need smoke blunt relax We livin nigga 理由:1)うつ病性雑草 amp sleep i awake i depressionpressed, 2)mood smoke blunt, 3)weed hits ya right depression, 4)i smokeed weed dorank alcoholdrowning sorrowing sorows away, 5) 感情的うつ病 誰もがスモーク・ブラント・リラックスを必要とします livin nigga 0.75
• Effect: 1) marijuana bad marijuana makes feel depressed low mmk, 2) Unemployed stoners are the most depressed on the planet, 3) guess depression took long time discover marijuana makes VERY •効果:1)マリファナの悪いマリファナは抑うつ感を低くし、2)失業者は地球上で最も抑うつ感があり、3)うつ病は長い時間をかけて、マリファナがVERYを産むことを発見したと推測する。
訳抜け防止モード: • 効果 : 1 ) マリファナの悪いマリファナは、抑うつ状態の低mmkを感じる。 2)失業者ストーナーは地球上で最も落ち込んでいる。 3)うつ病がマリファナを 発見するのに時間がかかりました
0.59
英語(論文から抽出)日本語訳スコア
DEPRESSED alcohol doesnt help either, 4) This weird rant like weed makes anxiety depression worse Im soooo sick ppl like jus, 5) waking weed naps nigga feeling depressed hell Depressioned alcohol don't help, 4) この奇妙な雑草のような雑草は不安を悪化させ、Im sooo sick ppl like jus, 5) 雑草の昼寝を覚醒させる。 0.75
• Addiction: 1) I feel like weed calm someone suffer depression anxiety psychosis predisposed either, 2) Small trigger warning Blaine suffers anxiety depression occasionally smoke pot, 3) need blunt accompany depression, 4) This bot crippling depression ok weed lol, 5) Violate blunt distraction possibly despair bask commitment This would never happen 依存症:1)うつ病不安精神病に苦しむ人、2)小さなトリガー警告 ブレインは時々うつ病に苦しむ、3)うつ病に苦しむ人、3)うつ病に苦しむ人、4)このボットがうつ病に苦しむ人、ok weed lol、5) 鈍感な気晴らしに違反すると、バスクのコミットメントを損なうことはあり得ない。 0.65
Figure 3: Shows the depression and cannabis phrases grouped according to the relationships of Reason, Effect and Addiction. 図3: 推論、効果、付加の関係に基づいてグループ化されたうつ病と大麻のフレーズを示す。 0.71
Purple - Reason, Green - Effect, Blue and a little yellow below - Addiction. 紫 - 理性、緑 - 効果、青と少し下の黄色 - 中毒。 0.65
5. Reproducibility From this study, we will be delivering high quality annotated dataset of 3000 tweets along with the full annotated dataset (by our method) of 11000 tweets, will be made publicly available to support research on the psychological impact of cannabis and depression use during COVID-19, as Cannabis use related to depression is seeing a rise once more. 5. 再現性 この研究では、3000のツイートの高品質の注釈付きデータセットと、11000のツイートの完全な注釈付きデータセット(私たちの方法による)を、新型コロナウイルス(COVID-19)における大麻とうつ病の使用の心理的影響に関する研究を支援するために公開する予定です。 0.77
Also, the trained model will be shared for reproducibility of the results and annotation of tweets. また、トレーニングされたモデルは、結果の再現性とツイートのアノテーションのために共有される。 0.61
Unfortunately, we cannot release the code used for training at this time as recently, Microsoft bought the rights to the GPT-3 model. 残念ながら、この時点でトレーニングに使用されるコードをリリースすることはできません。最近、MicrosoftはGPT-3モデルの権利を購入しました。 0.71
Therefore, to use the learning method proposed in this paper, GPT-3 will need to be substituted with an alternative language model such as BERT, GPT-2, etc. そこで本論文で提案した学習方法を利用するには,GPT-3 を BERT,GPT-2 などの代替言語モデルに置き換える必要がある。 0.88
1 6. Conclusion In this study, we present a method to determine the relationship between depression and cannabis consumption. 1 6. 結論:本研究では,うつ病と大麻摂取量との関係を判定する手法を提案する。 0.82
We motivate the necessity of understanding this issue due to the rapid increase in cases of depression in the US and across the world and subsequent increase in cannabis consumption. 我々は、米国および世界中のうつ病のケースが急増し、その後の大麻の消費が増加するため、この問題を理解する必要性を動機付けます。 0.69
We utilize tweets to understand the relationship as tweets are typically unfiltered expressions of simple ツイートは、通常、単純なフィルタなしの表現であるため、関係を理解するためにツイートを使用します。
訳抜け防止モード: つぶやきを使って関係を理解します。 ツイートは通常 単純な無フィルターの表現で
0.70
1https://blogs.micro soft.com/blog/2020/0 9/22/microsoft-teams -up-with-openai-to-e xclusively-license-g pt-3-language-model/ 1https://blogs.micro soft.com/blog/2020/0 9/22/microsoft-teams -up-with-openai-to-e xclusively-license-g pt-3-language-model/ 0.11
英語(論文から抽出)日本語訳スコア
usage patterns among cannabis users who use it in association with their depressive moods or disorder. うつ病の気分や障害に関連してそれを使用する大麻ユーザー間の使用パターン。
訳抜け防止モード: 大麻使用者における使用パターン 抑うつ的な気分や障害と関連づけて使います
0.75
We present a knowledge aware method to determine the relationship significantly better than the state-of-the-art effectively, show the quality of the learned relationship through visualization on TSNE based clusters, and annotate the unlabeled parts of the dataset. 本研究では, TSNEに基づくクラスタの可視化による学習関係の質の把握と, データセットのラベルなし部分の注釈付けを効果的に行うための知識認識手法を提案する。 0.74
We show by training on this new dataset (human-labeled and estimated label) that the model’s prediction quality is improved. この新たなデータセット(人間ラベル付きおよび推定ラベル)をトレーニングすることで、モデルの予測品質が向上することを示す。 0.80
We present this high-quality dataset for utilization by the broader scientific community in better understanding the relationship between depression and cannabis consumption. 我々は,抑うつと大麻消費の関係をより深く理解するために,より広い科学コミュニティが利用するための,この高品質なデータセットを提案する。
訳抜け防止モード: 我々は,この高品質なデータセットを,より広い科学コミュニティで活用する。 うつ病と大麻の消費の関係をよりよく理解する。
0.58
7. Broader Impact Although we develop our method to handle relationship extraction between depression and cannabis consumption specifically, we generally develop a domain knowledge infused relationship extraction mechanism that uses state-of-the-art language models, few shot machine learning techniques (contrastive loss) to achieve efficient and knowledge guided extraction. 7. 抑うつと大麻消費の関係抽出を特に扱う手法を開発したが、一般的には、最先端の言語モデルを用いたドメイン知識の融合関係抽出機構を開発し、効率的な知識誘導抽出を実現するためのショット機械学習技術(コントラッション損失)も少ない。 0.81
We see the improved quality in the results over transformer models. 結果の質は、トランスモデルよりも向上しています。 0.62
We believe that for applications with real-life consequences such as these, it is crucial to infuse domain knowledge as a human would combine with language understanding obtained from language models to identify relationships efficiently. このような現実的影響のあるアプリケーションでは、人間としてドメイン知識を融合し、言語モデルから得られた言語理解と組み合わせて関係を効率的に識別することが不可欠であると考えています。 0.72
Humans typically can learn from very few examples. 人間は通常、ごくわずかな例から学ぶことができる。 0.68
Motivated by this and the lack of availability of examples, we develop our relation extraction method. これと実例が得られないことに感銘を受けて,関係抽出法を開発した。 0.64
We hope our significantly improved results will encourage scientists to explore further the use of domain knowledge infusion in application settings that demand highly specialized domain expertise. この成果が、高度に専門性の高いドメインの専門知識を必要とするアプリケーション設定におけるドメイン知識注入のさらなる活用を科学者に促すことを願っています。 0.62
References [1] K. Hanson, A. Garcia, State medical marijuana laws, in: National Conference of State Legisla- 参考文献 [1] K. Hanson, A. Garcia, State Medical marijuana law, in: National Conference of State Legisla- 0.97
tures, 2014. 2014年、デビュー。 0.56
[2] R. Room, Legalizing a market for cannabis for pleasure: Colorado, washington, uruguay and [2] R. Room, Legalizing a market for cannabis: Colorado, Washingtonton, Uruguay and 0.77
beyond, 2014. [3] N. D. Volkow, R. D. Baler, W. M. Compton, S. R. B. Weiss, Adverse health effects of marijuana 2014年より。 N. D. Volkow, R. D. Baler, W. M. Compton, S. R. B. Weiss, Adverse health effects of marijuana 0.79
use, N. Engl. 使用、N. Engl。 0.90
J. Med. 370 (2014) 2219–2227. J.メディ。 370 (2014) 2219–2227. 0.79
[4] M. B. Bridgeman, D. T. Abazia, Medicinal cannabis: History, pharmacology, and implications for 4] M. B. Bridgeman, D. T. Abazia, Medicinal cannabis: History, pharmacology, and implications for 0.94
the acute care setting, P T 42 (2017) 180–188. 急性ケア設定、P T 42 (2017) 180–188。 0.74
[5] A. S. Young, R. Klap, R. Shoai, K. B. [5]A.S. Young, R. Klap, R. Shoai, K. B. 0.89
Wells, Persistent depression and anxiety in the united states: 米国におけるウェルズ、パーシステント・うつ病、不安 0.56
prevalence and quality of care, Psychiatr. 有病率とケアの質 精神科医 0.64
Serv. 59 (2008) 1391–1398. Serv 59 (2008) 1391–1398. 0.70
[6] S. E. Lankenau, J. Ataiants, S. Mohanty, S. Schrager, E. Iverson, C. F. Wong, Health conditions and motivations for marijuana use among young adult medical marijuana patients and non-patient marijuana users, Drug Alcohol Rev. 6]S. E. Lankenau, J. Ataiants, S. Mohanty, S. Schrager, E. Iverson, C. F. Wong, Health conditions and motivations formarijuana use in young adult marijuana patients and non-patient marijuana users, Drug Alcohol Rev。 0.94
37 (2018) 237–246. 37 (2018) 237–246. 0.92
[7] K. M. Keyes, M. Wall, M. Cerdá, J. Schulenberg, P. M. O’Malley, S. Galea, T. Feng, D. S. Hasin, How does state marijuana policy affect US youth? 7] K. M. Keyes, M. Wall, M. Cerdá, J. Schulenberg, P. M. O’Malley, S. Galea, T. Feng, D. S. Hasin, 州のマリファナ政策は米国の若者にどのように影響しますか? 0.75
medical marijuana laws, marijuana use and perceived harmfulness: 1991-2014, Addiction 111 (2016) 2187–2195. 医学マリファナ法、マリファナの使用および知覚された有害性:1991-2014、中毒111(2016) 2187-2195。 0.55
[8] O. Corazza, S. Assi, P. Simonato, J. Corkery, F. S. Bersani, Z. Demetrovics, J. Stair, S. Fergus, C. Pezzolesi, M. Pasinetti, P. Deluca, C. Drummond, Z. Davey, U. Blaszko, J. Moskalewicz, B. Mervo, L. D. Furia, M. Farre, L. Flesland, A. Pisarska, H. Shapiro, H. Siemann, A. Skutle, E. Sferrazza, M. Torrens, F. Sambola, P. van der Kreeft, N. Scherbaum, F. Schifano, Promoting innovation and excellence to face the rapid diffusion of novel psychoactive substances in the EU: the outcomes of the ReDNet project, Hum. 8] O. Corazza, S. Assi, P. Simonato, J. Corkery, F. S. Bersani, Z. Demetrovics, J. Stair, S. Fergus, C. Pezzolesi, M. Pasinetti, P. Deluca, C. Drummond, Z. Davey, U. Blaszko, J. Moskalewicz, B. Mervo, L. D. Furia, M. Farre, L. Flesland, A. Pisarska, H. Shapiro, H. Siemann, A. Skutle, E. Sferrazza, M. Torrens, F. Sambola, P. van der Kreef, N. Schum, Schifano, は、EUの新規な物質の急速な拡散を促進するためのイノベーションを推進します。 0.92
Psychopharmacol. 28 (2013) 317–323. 精神薬師。 28 (2013) 317–323. 0.76
英語(論文から抽出)日本語訳スコア
[9] L. Burns, A. Roxburgh, R. Bruno, J. 9] L. Burns, A. Roxburgh, R. Bruno, J. 0.93
Van Buskirk, Monitoring drug markets in the internet age Van Buskirk - インターネット時代の薬物市場を監視する 0.77
and the evolution of drug monitoring systems in australia, Drug Test. オーストラリアにおける薬物モニタリングシステムの進化、薬物検査。 0.65
Anal. 6 (2014) 840–845. アナル。 6 (2014) 840–845. 0.75
[10] P. A. Cavazos-Rehg, K. Zewdie, M. J. Krauss, S. J. Sowles, “no high like a brownie high”: A P. A. Cavazos-Rehg, K. Zewdie, M. J. Krauss, S. J. Sowles, “No high like a brownie high”: A 0.91
content analysis of edible marijuana tweets, Am. 食用マリファナツイートのコンテンツ分析、アム。 0.56
J. Health Promot. 32 (2018) 880–886. J。 健康増進。 32 (2018) 880–886. 0.76
[11] R. Daniulaityte, F. R. Lamy, G. A. Smith, R. W. Nahhas, R. G. Carlson, K. Thirunarayan, S. S. Martins, E. W. Boyer, A. Sheth, “retweet to pass the blunt”: Analyzing geographic and content features of Cannabis-Related tweeting across the united states, J. R. Daniulaityte, F. R. Lamy, G. A. Smith, R. W. Nahhas, R. G. Carlson, K. Thirunarayan, S. S. Martins, E. W. Boyer, A. Sheth, “retweet to pass the blunt”: Cannabis-Relatedの地理的およびコンテンツ的特徴の分析。 0.94
Stud. Alcohol Drugs 78 (2017) 910–915. Stud! アルコール医薬品78(2017) 910-915。 0.65
[12] F. R. Lamy, R. Daniulaityte, M. Zatreh, R. W. Nahhas, A. Sheth, S. S. Martins, E. W. Boyer, R. G. Carlson, “you got to love rosin: Solventless dabs, pure, clean, natural medicine.” exploring twitter data on emerging trends in rosin tech marijuana concentrates, Drug Alcohol Depend. F. R. Lamy, R. Daniulaityte, M. Zatreh, R. W. Nahhas, A. Sheth, S. S. Martins, E. W. Boyer, R. G. Carlson, “あなたはRosin: Solventless dabs, pure, clean, natural Medicineを愛した。”Twitterのデータを検索して、ロジン技術マリファナの新興トレンドに関するTwitterデータを調べている。 0.75
183 (2018) 248–252. 183 (2018) 248–252. 0.92
[13] D. Cameron, G. A. Smith, R. Daniulaityte, A. P. Sheth, D. Dave, L. Chen, G. Anand, R. Carlson, K. Z. Watkins, R. Falck, PREDOSE: a semantic web platform for drug abuse epidemiology using social media, J. Biomed. D. Cameron, G. A. Smith, R. Daniulaityte, A. P. Sheth, D. Dave, L. Chen, G. Anand, R. Carlson, K. Z. Watkins, R. Falck, PreDOSE: ソーシャルメディアを利用した薬物乱用疫学のセマンティックWebプラットフォーム。 0.89
Inform. 46 (2013) 985–997. 情報。 46 (2013) 985–997. 0.76
[14] Drug abuse ontology | NCBO BioPortal, http://bioportal.bio ontology.org/ontolog ies/DAO, ??? 14]薬物乱用オントロジー | NCBO BioPortal, http://bioportal.bio ontology.org/ontolog ies/DAO,? 0.79
? Accessed: 2019-2-28. ? アクセス:2019-2-28。 0.68
[15] U. Lokala, F. R. Lamy, R. Daniulaityte, A. Sheth, R. W. Nahhas, J. I. Roden, S. Yadav, R. G. Carlson, Global trends, local harms: availability of fentanyl-type drugs on the dark web and accidental overdoses in ohio, Comput. U. Lokala, F. R. Lamy, R. Daniulaityte, A. Sheth, R. W. Nahhas, J. I. Roden, S. Yadav, R. G. Carlson, Global trend, local harms: available of fentanyl-type drugs on the dark web and accidental overdoses in Oio, Comput。 0.93
Math. Organ. Theory (2018) 1–12. 数学。 オルガン。 理論(2018年)1-12。 0.56
[16] D. Cameron, G. A. Smith, R. Daniulaityte, A. P. Sheth, D. Dave, L. Chen, G. Anand, R. Carlson, K. Z. Watkins, R. Falck, Predose: a semantic web platform for drug abuse epidemiology using social media, Journal of biomedical informatics 46 (2013) 985–997. 16] D. Cameron, G. A. Smith, R. Daniulaityte, A. P. Sheth, D. Dave, L. Chen, G. Anand, R. Carlson, K. Z. Watkins, R. Falck, Predose: ソーシャルメディアを利用した薬物乱用疫学のためのセマンティックウェブプラットフォーム、Journal of Biomedical informatics 46 (2013) 985–997。 0.85
[17] U. Kursuncu, M. Gaur, U. Lokala, A. Illendula, K. Thirunarayan, R. Daniulaityte, A. Sheth, I. 17] U. Kursuncu, M. Gaur, U. Lokala, A. Illendula, K. Thirunarayan, R. Daniulaityte, A. Sheth, I。 0.93
B. Arpinar, What’s ur type? B.Arpinar、urのタイプは何ですか。 0.60
contextualized classification of user types in marijuana-related communications using compositional multiview embedding, in: 2018 IEEE/WIC/ACM International Conference on Web Intelligence (WI), IEEE, 2018, pp. 2018 IEEE/WIC/ACM International Conference on Web Intelligence (WI), IEEE, 2018, pp。
訳抜け防止モード: コンポジション型マルチビュー埋め込みを用いたマリファナにおけるユーザタイプのコンテキスト分類 in : 2018 IEEE / WIC / ACM International Conference on Web Intelligence (WI)。 IEEE、2018、pp。
0.80
474–479. [18] M. Gaur, U. Kursuncu, A. Alambo, A. Sheth, R. Daniulaityte, K. Thirunarayan, J. Pathak, Let me tell you about your mental health! 474–479. M. Gaur, U. Kursuncu, A. Alambo, A. Sheth, R. Daniulaityte, K. Thirunarayan, J. Pathak, Let me tell you about your mental health! 0.81
: Contextualized classification of reddit posts to DSM5 for web-based intervention, in: Proceedings of the 27th ACM International Conference on Information and Knowledge Management, 2018, pp. : Web ベースの介入のための DSM5 への Reddit 投稿のコンテキスト化された分類, in: 第 27 回 ACM 国際情報と知識管理会議の進行, 2018 pp。 0.81
753–762. [19] M. Gaur, A. Alambo, J. P. Sain, U. Kursuncu, K. Thirunarayan, R. Kavuluru, A. Sheth, R. Welton, in: 753–762. 19] M. Gaur, A. Alambo, J.P. Sain, U. Kursuncu, K. Thirunarayan, R. Kavuluru, A. Sheth, R. Welton 0.82
J. Pathak, Knowledge-aware assessment of severity of suicide risk for early intervention, The World Wide Web Conference, 2019, pp. J. Pathak, Knowledge-aware Assessment of severity of suicide risk for early intervention, The World Wide Web Conference, 2019, pp。 0.91
514–525. [20] Y. Lin, S. Shen, Z. Liu, H. Luan, M. Sun, Neural relation extraction with selective attention over in: Proceedings of the 54th Annual Meeting of the Association for Computational 514–525. [20]Y. Lin, S. Shen, Z. Liu, H. Luan, M. Sun, Neural relation extract with selective attention over in: Proceeds of the54th Annual Meeting of the Association for Computational 0.84
instances, Linguistics (Volume 1: Long Papers), 2016, pp. example, Linguistics (Volume 1: Long Papers), 2016 pp. 0.68
2124–2133. 2124–2133. 0.71
[21] J. Lee, S. Seo, Y. S. Choi, Semantic relation classification via bidirectional lstm networks with 21] J. Lee, S. Seo, Y.S. Choi, 2方向lstmネットワークによるセマンティック関係分類 0.84
entity-aware attention using latent entity typing, Symmetry 11 (2019) 785. 潜在エンティティタイピングを用いたエンティティ対応アテンション、Symmetry 11 (2019) 785。 0.68
[22] J. Maillard, S. Clark, D. Yogatama, Jointly learning sentence embeddings and syntax with unsu- [22]J. Maillard, S. Clark, D. Yogatama, Jointly Learning sentence embeddings and syntax with unsu-- 0.96
pervised tree-lstms, Natural Language Engineering 25 (2019) 433–449. ツリーlstm、自然言語工学25(2019年)433-449。 0.72
[23] A. Akbik, T. Bergmann, R. Vollgraf, Pooled contextualized embeddings for named entity recognition, in: Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019, pp. A. Akbik, T. Bergmann, R. Vollgraf, Pooled contextualized embeddeds for named entity recognition, in: Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019, pp. 0.81
724–728. [24] T. B. 724–728. [24]T.B. 0.82
Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, A. Neelakantan, P. Shyam, G. Sastry, A. Askell, et al., Language models are few-shot learners, arXiv preprint Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, A. Neelakantan, P. Shyam, G. Sastry, A. Askell, al., Language Model are few-shot learners, arXiv preprint 0.94
英語(論文から抽出)日本語訳スコア
arXiv:2005.14165 (2020). arXiv:2005.14165 (2020)。 0.67
[25] J. Devlin, M.-W. Chang, K. Lee, K. Toutanova, BERT: Pre-training of deep bidirectional transformers for language understanding, in: Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), Association for Computational Linguistics, Minneapolis, Minnesota, 2019, pp. [25] j. devlin, m.-w. chang, k. lee, k. toutanova, bert: pre-training of deep bidirectional transformers for language understanding, in: proceedings of the 2019 conference of the north american chapter of the association of the computational linguistics: human language technologies, volume 1 (long and short papers), association for computational linguistics, minneapolis, minnesota, 2019, pp. (英語) 0.87
4171–4186. 4171–4186. 0.71
URL: https://www.aclweb.o rg/anthology/N19-142 3. URL: https://www.aclweb.o rg/anthology/N19-142 3 0.42
doi:10.18653/v1/N19- 1423. doi:10.18653/v1/n19- 1423 0.22
[26] C. Lin, T. Miller, D. Dligach, S. Bethard, G. Savova, A bert-based universal model for both withinin: Proceedings of the 2nd Clinical C. Lin, T. Miller, D. Dligach, S. Bethard, G. Savova, A bert-based universal model for both withinin: Proceedings of the 2nd Clinical 0.92
and cross-sentence clinical temporal relation extraction, Natural Language Processing Workshop, 2019, pp. and cross-sentence clinical temporal relation extraction, natural language processing workshop, 2019, pp。 0.88
65–71. [27] E. Hoffer, N. Ailon, Deep metric learning using triplet network, in: International Workshop on 65–71. 27] e. hoffer, n. ailon, deep metric learning using triplet network, in: international workshop on 0.76
Similarity-Based Pattern Recognition, Springer, 2015, pp. 類似性に基づくパターン認識, Springer, 2015 pp。 0.87
84–92. [28] A. Sheth, M. Gaur, U. Kursuncu, R. Wickramarachchi, Shades of knowledge-infused learning for 84–92. 28] A. Sheth, M. Gaur, U. Kursuncu, R. Wickramarachchi, Shades of Knowledge-Infused Learning for 0.82
enhancing deep learning, IEEE Internet Computing 23 (2019) 54–63. ディープラーニングの強化 ieee internet computing 23 (2019) 54-63。 0.66
[29] U. Kursuncu, M. Gaur, A. Sheth, Knowledge infused learning (k-il): Towards deep incorporation [29]U. Kursuncu, M. Gaur, A. Sheth, Knowledge Infused Learning (k-il):深層化を目指して 0.85
of knowledge in deep learning, arXiv preprint arXiv:1912.00512 (2019). ディープラーニングの知識について arXiv preprint arXiv:1912.00512 (2019)。 0.78
[30] M. Gaur, U. Kursuncu, A. Sheth, R. Wickramarachchi, S. Yadav, Knowledge-infused deep learnin: Proceedings of the 31st ACM Conference on Hypertext and Social Media, 2020, pp. 30] M. Gaur, U. Kursuncu, A. Sheth, R. Wickramarachchi, S. Yadav, Knowledge Infused Deep Learnin: Proceedings of the 31st ACM Conference on Hypertext and Social Media, 2020, pp。 0.94
ing, 309–310. ing、309-310。 0.73
[31] C. Liu, W. Sun, W. Chao, W. Che, Convolution neural network for relation extraction, 31] C. Liu, W. Sun, W. Chao, W. Che, Convolution neural Network for relation Extract, 0.92
in: International Conference on Advanced Data Mining and Applications, Springer, 2013, pp. In: International Conference on Advanced Data Mining and Applications, Springer, 2013, pp。 0.80
231– 242. [32] M. Miwa, M. Bansal, End-to-end relation extraction using lstms on sequences and tree structures, 231– 242. 32]m. miwa, m. bansal, end-to-end relation extraction using lstms on sequences and tree structures 0.91
arXiv preprint arXiv:1601.00770 (2016). arXiv preprint arXiv:1601.00770 (2016)。 0.77
[33] S. Yadav, A. Ekbal, S. Saha, A. Kumar, P. Bhattacharyya, Feature assisted stacked attentive shortest dependency path based bi-lstm model for protein–protein interaction, Knowledge-Based Systems 166 (2019) 18–29. S. Yadav, A. Ekbal, S. Saha, A. Kumar, P. Bhattacharyya, Feature assisted stacked attentive shortest dependency path based bi-lstm model for protein- protein interaction, Knowledge-based Systems 166 (2019) 18–29。 0.90
[34] D. Liang, W. Xu, Y. Zhao, Combining word-level and character-level representations for relation classification of informal text, in: Proceedings of the 2nd Workshop on Representation Learning for NLP, 2017, pp. 34] D. Liang, W. Xu, Y. Zhao, Cominging word-level and character-level representations for relation classification of informal text, in: Proceedings of the 2nd Workshop on Representation Learning for NLP, 2017 pp。 0.94
43–47. [35] F. Wu, A. Souza, T. Zhang, C. Fifty, T. Yu, K. Weinberger, Simplifying graph convolutional networks, in: K. Chaudhuri, R. Salakhutdinov (Eds. 43–47. F. Wu, A. Souza, T. Zhang, C. Fifty, T. Yu, K. Weinberger, Simplifying graph convolutional network, in: K. Chaudhuri, R. Salakhutdinov (Eds). 0.83
), Proceedings of the 36th International Conference on Machine Learning, volume 97 of Proceedings of Machine Learning Research, PMLR, Long Beach, California, USA, 2019, pp. 第36回機械学習国際会議(Proceedings of the 36th International Conference on Machine Learning, Volume 97 of Proceedings of Machine Learning Research, PMLR, Long Beach, California, USA, 2019, pp。 0.89
6861–6871. 6861–6871. 0.71
URL: http://proceedings.m lr.press/v97/wu19e.h tml. URL: http://proceedings.m lr.press/v97/wu19e.h tml 0.39
[36] Z. Guo, Y. Zhang, W. Lu, Attention guided graph convolutional networks for relation extraction, in: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, Association for Computational Linguistics, Florence, Italy, 2019, pp. [36] Z. Guo, Y. Zhang, W. Lu, Attention guide graph convolutional network for relation Extract, in: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, Association for Computational Linguistics, Florence, Italy, 2019, pp。 0.90
241–251. URL: https://www. 241–251. URL: https://www。 0.80
aclweb.org/anthology /P19-1024. aclweb.org/anthology /p19-1024 0.29
doi:10.18653/v1/P19- 1024. doi:10.18653/v1/P19- 1024。 0.21
[37] G. Bekoulis, J. Deleu, T. Demeester, C. Develder, Adversarial training for multi-context joint entity and relation extraction, in: Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, Association for Computational Linguistics, Brussels, Belgium, 2018, pp. 37] G. Bekoulis, J. Deleu, T. Demeester, C. Develder, Adversarial Training for multi-context joint entity and relation Extract, in: Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, Association for Computational Linguistics, Brussels, Belgium, 2018 pp。 0.88
2830–2836. 2830–2836. 0.71
URL: https://www.aclweb.o rg/anthology/D18-130 7. URL: https://www.aclweb.o rg/anthology/D18-130 7。 0.40
doi:10.18653/ v1/D18-1307. doi:10.18653/ v1/D18-1307。 0.29
[38] S.-P. Choi, Extraction of protein–protein interactions (ppis) from the literature by deep convolutional neural networks with various feature embeddings, Journal of Information Science 44 (2018) 60–73. 38] S.P. Choi, Extraction of protein-protein Interaction (ppis) from the literature by Deep Convolutional neural Network with various feature embeddeddings, Journal of Information Science 44 (2018) 60–73. (英語) 0.89
[39] Y. Peng, Z. Lu, Deep learning for extracting protein-protein interactions from biomedical liter- 39]Peng,Z. Lu, Deep Learning for extracting protein- protein interaction from biomedical liter-- 0.85
英語(論文から抽出)日本語訳スコア
ature, arXiv preprint arXiv:1706.01556 (2017). arXiv preprint arXiv:1706.01556 (2017)。 0.94
[40] J. Lee, W. Yoon, S. Kim, D. Kim, S. Kim, C. H. So, J. Kang, Biobert: pre-trained biomedical language J. Lee, W. Yoon, S. Kim, D. Kim, S. Kim, C. H. So, J. Kang, Biobert: 事前訓練された生物医学言語 0.82
representation model for biomedical text mining, arXiv preprint arXiv:1901.08746 (2019). バイオメディカルテキストマイニングのための表現モデルarXiv preprint arXiv:1901.08746 (2019)。 0.87
[41] I. Beltagy, K. Lo, A. Cohan, Scibert: A pretrained language model for scientific text, 41] I. Beltagy, K. Lo, A. Cohan, Scibert: 科学テキストのための学習済み言語モデル。 0.87
in: Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), 2019, pp. in: 2019年自然言語処理の実証的方法に関する会議と第9回自然言語処理に関する国際合同会議(EMNLP-IJCNLP)、2019年、pp。 0.82
3606–3611. 3606–3611. 0.71
[42] Z. Yang, Z. Dai, Y. Yang, J. Carbonell, R. Salakhutdinov, Q. V. Le, Xlnet: Generalized autoregres- [42] Z. Yang, Z. Dai, Y. Yang, J. Carbonell, R. Salakhutdinov, Q.V. Le, Xlnet: Generalized autoregres- 0.90
sive pretraining for language understanding, arXiv preprint arXiv:1906.08237 (2019). sive pretraining for language understanding, arXiv preprint arXiv:1906.08237 (2019) 0.94
[43] P. Shi, J. Lin, Simple bert models for relation extraction and semantic role labeling, arXiv preprint 43] P. Shi, J. Lin, Simple bert model for relation Extract and semantic role labeling, arXiv preprint 0.86
arXiv:1904.05255 (2019). arXiv:1904.05255 (2019)。 0.68
[44] K. Xue, Y. Zhou, Z. Ma, T. Ruan, H. Zhang, P. He, Fine-tuning bert for joint entity and relation 44] K. Xue, Y. Zhou, Z. Ma, T. Ruan, H. Zhang, P. He, Fine-tuning bert for joint entity and relation 0.93
extraction in chinese medical text, arXiv preprint arXiv:1908.07721 (2019). 中国の医学テキストの抽出、arXiv preprint arXiv:1908.07721 (2019)。 0.76
[45] H. Wang, M. Tan, M. Yu, S. Chang, D. Wang, K. Xu, X. Guo, S. Potdar, Extracting multiple- H. Wang, M. Tan, M. Yu, S. Chang, D. Wang, K. Xu, X. Guo, S. Potdar, Extracting multiple- 0.92
relations in one-pass with pre-trained transformers, arXiv preprint arXiv:1902.01030 (2019). 事前訓練された変換器、arXiv preprint arXiv:1902.01030 (2019) とのワンパスの関係 0.62
[46] M. Gaur, K. Faldu, A. Sheth, Semantics of the black-box: Can knowledge graphs help make deep learning systems more interpretable and explainable?, arXiv preprint arXiv:2010.08660 (2020). ArXiv preprint arXiv:2010.08660 (2020) [46] M. Gaur, K. Faldu, A. Sheth, Semantics of the Black-box: Can knowledge graphs help make Deep Learning systems more interpretable and explainable? 0.93
[47] Y. S. Chan, D. Roth, Exploiting background knowledge for relation extraction, Proceedings of 47] Y.S. Chan, D. Roth, Exploiting background knowledge for relation extract, Proceedings of 0.90
the 23rd International Conference on (2010). 第23回国際会議(2010年)開催。 0.76
[48] D. Wen, Y. Liu, K. Yuan, S. Si, Y. Shen, Attention-Aware Path-Based relation extraction for in: Smart Computing and Communication, Springer International [48] D. Wen, Y. Liu, K. Yuan, S. Si, Y. Shen, Attention-Aware Path-Basedlation Extract for in: Smart Computing and Communication, Springer International 0.93
medical knowledge graph, Publishing, 2018, pp. 医学知識グラフ, Publishing, 2018, pp. 0.80
321–331. [49] B. Distiawan, G. Weikum, J. Qi, R. Zhang, Neural relation extraction for knowledge base enin: Proceedings of the 57th Annual Meeting of the Association for Computational 321–331. 49]B. Distiawan, G. Weikum, J. Qi, R. Zhang, Neural Relation extract for Knowledge Base Enin: Proceeds of the57th Annual Meeting of the Association for Computational 0.81
richment, Linguistics, 2019, pp. richment, Linguistics, 2019, pp。 0.82
229–240. [50] J. Li, G. Huang, J. Chen, Y. Wang, Dual cnn for relation extraction with knowledge-based atten- 229–240. [50]J. Li, G. Huang, J. Chen, Y. Wang, Dual cnn for relation extract with knowledge-based atten-- 0.79
tion and word embeddings, Computational intelligence and neuroscience 2019 (2019). tion and word embeddeds, computational intelligence and neuroscience 2019 (2019)を参照。 0.84
[51] H. Zhou, C. Lang, Z. Liu, S. Ning, Y. Lin, L. Du, Knowledge-guided convolutional networks for H. Zhou, C. Lang, Z. Liu, S. Ning, Y. Lin, L. Du, Knowledge-guided convolutional network for 0.91
chemical-disease relation extraction, BMC bioinformatics 20 (2019) 260. 化学-酵素関係抽出、BMCバイオインフォマティクス20(2019) 260。 0.68
[52] P. Li, K. Mao, X. Yang, Q. Li, 52] P. Li、K. Mao、X. Yang、Q. Li。 0.89
Improving relation extraction with knowledge-attention, arXiv ナレッジアテンテンション, arXivによる関係抽出の改善 0.81
preprint arXiv:1910.02724 (2019). arXiv:1910.02724 (2019) 0.74
[53] A. Alambo, M. Gaur, U. Lokala, U. Kursuncu, K. Thirunarayan, A. Gyrard, A. Sheth, R. S. Welton, in: 2019 IEEE 13th A. Alambo, M. Gaur, U. Lokala, U. Kursuncu, K. Thirunarayan, A. Gyrard, A. Sheth, R. S. Welton, in: 2019 IEEE 13th 0.95
J. Pathak, Question answering for suicide risk assessment using reddit, International Conference on Semantic Computing (ICSC), IEEE, ??? J. Pathak, redditを用いた自殺リスクアセスメントに関する質問, International Conference on Semantic Computing (ICSC), IEEE, ? 0.76
?, pp. 468–473. ん? pp。 468–473. 0.69
[54] U. Kursuncu, M. Gaur, C. Castillo, A. Alambo, K. Thirunarayan, V. Shalin, D. Achilov, I. 54] U. Kursuncu, M. Gaur, C. Castillo, A. Alambo, K. Thirunarayan, V. Shalin, D. Achilov, I。 0.94
B. Arpinar, A. Sheth, Modeling islamist extremist communications on social media using contextual dimensions: religion, ideology, and hate, Proceedings of the ACM on Human-Computer Interaction 3 (2019) 1–22. B. Arpinar, A. Sheth, Modeling islamist extremist communication on social media using contextual dimensions: religion, ideology, and hate, Proceedings of the ACM on Human-Computer Interaction 3 (2019) 1–22。 0.96
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。