論文の概要、ライセンス

# (参考訳) SuMe: バイオメディカルメカニズムの要約に向けたデータセット [全文訳有]

SuMe: A Dataset Towards Summarizing Biomedical Mechanisms ( http://arxiv.org/abs/2205.04652v1 )

ライセンス: CC BY 4.0
Mohaddeseh Bastan, Nishant Shankar, Mihai Surdeanu, and Niranjan Balasubramanian(参考訳) 言語モデルは生物医学的テキストを読み、議論される生体医学的メカニズムを説明することができるか? 本稿では,生物医療機構の要約タスクを紹介する。 生物医学的な研究は、ある物質(例えば、タンパク質や化学物質)が生物学的文脈において他の物質にどのように影響するかのメカニズムをしばしば研究する。 これらの出版物の要約には、しばしばそのような関係に関する関連する支持言明を提示する集中した一連の文、関連する実験的な証拠、および関係の基礎となるメカニズムを要約する結論付け文が含まれる。 我々はこの構造を利用して要約タスクを作成し、入力は抽象的な文と主エンティティの集合であり、出力は機構を要約する関係と文を含む。 少量の手動ラベル付き機構文を用いて,機構文分類器を訓練し,大規模な生体医学的抽象コレクションをフィルタリングし,22kインスタンスの要約データセットを作成する。 また,611kインスタンスの事前学習タスクとして結論文生成を導入する。 大規模生物ドメイン言語モデルの性能をベンチマークする。 事前学習タスクは性能向上に役立ちながら,最高のモデルでは32%のインスタンスで許容可能なメカニズムの出力を生成しており,これは生物医学的言語理解と要約において重要な課題であることを示している。

Can language models read biomedical texts and explain the biomedical mechanisms discussed? In this work we introduce a biomedical mechanism summarization task. Biomedical studies often investigate the mechanisms behind how one entity (e.g., a protein or a chemical) affects another in a biological context. The abstracts of these publications often include a focused set of sentences that present relevant supporting statements regarding such relationships, associated experimental evidence, and a concluding sentence that summarizes the mechanism underlying the relationship. We leverage this structure and create a summarization task, where the input is a collection of sentences and the main entities in an abstract, and the output includes the relationship and a sentence that summarizes the mechanism. Using a small amount of manually labeled mechanism sentences, we train a mechanism sentence classifier to filter a large biomedical abstract collection and create a summarization dataset with 22k instances. We also introduce conclusion sentence generation as a pretraining task with 611k instances. We benchmark the performance of large bio-domain language models. We find that while the pretraining task help improves performance, the best model produces acceptable mechanism outputs in only 32% of the instances, which shows the task presents significant challenges in biomedical language understanding and summarization.
公開日: Tue, 10 May 2022 03:42:30 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
SuMe: A Dataset Towards Summarizing Biomedical Mechanisms SuMe: バイオメディカルメカニズムの要約に向けたデータセット 0.70
Mohaddeseh Bastan♠, Nishant Shankar♣, Mihai Surdeanu♥, モハダセ・バスタン(Mohaddeseh Bastan)、ニシャント・シャンカー(Nishant Shankar)、ミハイ・スルデアヌ(Mihai Surdeanu)。 0.37
♥ University of Arizona ♠ Stony Brook University アリゾナ大学 ストニーブルック大学(Stony Brook University) 0.45
Niranjan Balasubramanian♠ ♣Delft University of Technology {mbastan, niranjan}@cs.stonybrook.edu ナイランジャン・バラスプラマニア大学(niranjan balasubramanian) シュデルフト工科大学(university of technology) 0.59
n.shankar@tudelft.nl n.shankar@tudelft.nl 0.29
msurdeanu@email.ariz ona.edu msurdeanu@email.ariz ona.edu 0.29
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] L C . s c [ 1 v 2 5 6 4 0 ]LC。 sc [ 1 v 2 5 6 4 0 0.30
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract Can language models read biomedical texts and explain the biomedical mechanisms discussed? 概要 言語モデルは生物医学的テキストを読み、議論される生体医学的メカニズムを説明することができるか? 0.49
In this work we introduce a biomedical mechanism summarization task. 本稿では,生物医療機構の要約タスクを紹介する。 0.72
Biomedical studies often investigate the mechanisms behind how one entity (e g , a protein or a chemical) affects another in a biological context. 生物医学的な研究は、ある物質(例えば、タンパク質や化学物質)が生物学的文脈において他の物質にどのように影響するかのメカニズムをしばしば研究する。
訳抜け防止モード: バイオメディカル研究は、しばしばその背景にあるメカニズムを調査する ある物質(例えば、タンパク質や化学物質)が生物学的文脈で他の物質に影響を及ぼす。
0.69
The abstracts of these publications often include a focused set of sentences that present relevant supporting statements regarding such relationships, associated experimental evidence, and a concluding sentence that summarizes the mechanism underlying the relationship. これらの出版物の要約には、しばしばそのような関係に関する関連する支持言明を提示する集中した一連の文、関連する実験的な証拠、および関係の基礎となるメカニズムを要約する結論付け文が含まれる。 0.68
We leverage this structure and create a summarization task, where the input is a collection of sentences and the main entities in an abstract, and the output includes the relationship and a sentence that summarizes the mechanism. 我々はこの構造を利用して要約タスクを作成し、入力は抽象的な文と主エンティティの集合であり、出力は機構を要約する関係と文を含む。 0.67
Using a small amount of manually labeled mechanism sentences, we train a mechanism sentence classifier to filter a large biomedical abstract collection and create a summarization dataset with 22k instances. 少量の手動ラベル付き機構文を用いて,機構文分類器を訓練し,大規模な生体医学的抽象コレクションをフィルタリングし,22kインスタンスの要約データセットを作成する。 0.77
We also introduce conclusion sentence generation as a pretraining task with 611k instances. また,611kインスタンスの事前学習タスクとして結論文生成を導入する。 0.58
We benchmark the performance of large bio-domain language models. 大規模生物ドメイン言語モデルの性能をベンチマークする。 0.65
We find that while the pretraining task help improves performance, the best model produces acceptable mechanism outputs in only 32% of the instances, which shows the task presents significant challenges in biomedical language understanding and summarization. 事前学習タスクは性能向上に役立ちながら,最高のモデルでは32%のインスタンスで許容可能なメカニズムの出力を生成しており,これは生物医学的言語理解と要約において重要な課題であることを示している。 0.71
Keywords: Explanation Generation, Text Generation, Summarization, Biomedical NLP, Relation Extraction キーワード:説明生成、テキスト生成、要約、生物医学的nlp、関係抽出 0.74
1. Introduction Understanding biochemical mechanisms such as protein signaling pathways is one of the central pursuits of biomedical research (Str¨otgen and Gertz, 2012) (Arighi et al , 2011; Krallinger et al , 2017; Demner-Fushman et al , 2020). 1. はじめに タンパク質シグナリング経路などの生化学的メカニズムを理解することは、生物医学研究の中心的研究の1つである(Arighi et al , 2011; Krallinger et al , 2017; Demner-Fushman et al , 2020)。 0.59
Biomedical research has advanced tremendously in the past few decades, to the point where we now suffer from “an embarrassment of riches”. バイオメディカル・リサーチは過去数十年で飛躍的に進歩し、今では「富の恥ずかしさ」に悩まされている。
訳抜け防止モード: 生物医学の研究は過去数十年で飛躍的に進歩し 私たちは今,“富の困惑”に苦しんでいます。
0.72
Publications are generated at such a rapid pace (PubMed 1 has indexed more than 1 million publications per year in the past 8 years!) that we need information access applications which can help extract and organize biomedical relations and summarize the biomedical mechanisms underlying them. このペースで出版物が生成される(PubMed 1は、過去8年間で年間100万以上の出版物をインデックス化している!
訳抜け防止モード: こんな速さで出版物が生まれます (pubmed 1は過去8年間で年間100万以上の出版物をインデックスしている! 情報アクセスアプリケーションが必要で バイオメディカルな関係を抽出し整理し、それを支えるバイオメディカルメカニズムを要約するのに役立つ。
0.71
Developing models that can read biomedical texts and reason about these mechanisms is an important step towards this. 生体医学的なテキストを読み、これらのメカニズムを推論できるモデルを開発することは、これへの重要なステップである。
訳抜け防止モード: 生体医学的テキストを読めるモデルの開発とそのメカニズムの解明 これへの重要な一歩です。
0.74
In this paper, we introduce a mechanism summarization task which couples text that discusses elements of biomedical mechanisms with their summaries. 本稿では,バイオメディカルメカニズムの要素を要約と議論するテキストを結合する機構要約タスクを提案する。 0.77
The task requires models to read text that presents information about the connection between two target entities and generate a summary sentence that explains the underlying mechanism and the relation between the entities. このタスクでは、2つの対象エンティティ間の接続に関する情報を提示するテキストを読み出し、基礎となるメカニズムとエンティティ間の関係を説明する要約文を生成する必要がある。 0.72
We see this task from two perspectives. 私たちはこのタスクを2つの観点から見ます。 0.57
First, summarizing biomedical mechanisms can be seen as part of the broader efforts in extracting (Czarnecki et al , 2012), organizing (Kemper et al , 2010; Kemper et al , 2010; Miwa et al , 2013; Subramani et al , 2015; Poon et al , 2014), and summarizing (Azadani et al , 2018) biomedical literature that are aimed at providing information access tools for domain experts. 第一に、バイオメディカルメカニズムの要約は、(Czarnecki et al , 2012)、組織化(Kemper et al , 2010; Kemper et al , 2010; Miwa et al , 2013; Subramani et al , 2015; Poon et al , 2014)、および(Azadani et al , 2018)、ドメインエキスパートに情報アクセスツールを提供することを目的としたバイオメディカル文献の要約(Azadani et al , 2018)の幅広い取り組みの一部として見ることができる。 0.80
1https://pubmed.ncbi .nlm.nih.gov 1https://pubmed.ncbi .nlm.nih.gov 0.16
Figure 1: Biomedical Mechanism Summarization Task: Example of an entry from the SuMe dataset. 図1: 生体医学的メカニズム 要約タスク:sumeデータセットからのエントリの例。 0.77
Some supporting text was removed to save space. スペースを節約するためにいくつかのサポートテキストが削除された。 0.52
The input is the supporting sentences with the main two entities. 入力はメイン2つのエンティティを持つサポート文である。 0.70
The output is the relation type and a sentence concluding the mechanism underlying the relationship. 出力は関係型と関係の基盤となるメカニズムを構成する文である。 0.78
Second, from an NLP perspective this task can be seen as an explainable relation extraction in a biomedical context, where the explanation is the mechanism that provides information about why the relation holds or how it comes about. 第二に、NLPの観点からは、このタスクは生医学的な文脈における説明可能な関係抽出と見なすことができ、そこでは、なぜ関係が成り立つのか、どのように起こるのかについての情報を提供するメカニズムである。 0.57
A key challenge in addressing such a task lies in creating a large scale dataset necessary for training large neural models. このようなタスクに対処する上で重要な課題は、大規模ニューラルネットワークモデルのトレーニングに必要な大規模なデータセットを作成することだ。
訳抜け防止モード: このような課題に取り組む上での鍵となる課題は 大規模ニューラルネットワークモデルのトレーニングに必要な大規模データセットの作成。
0.72
However, building such a dataset manually is a laborious process and requires deep biomedical expertise. しかし、このようなデータセットを手動で構築するのは面倒なプロセスであり、深いバイオメディカルな専門知識を必要とする。 0.52
To address this, we turn to the structure that exists これに対処するために 存在する構造に目を向けます 0.69
Biomedical AbstractThis study re-examined the hyperactivity and disruption of prepulse inhibitioninduced by Nmethyl-D-aspartate stimulation ... of the rat ventral hippocampusand compared how both effects were affected by pretreatment with eitherhaloperidol or clozapine. 本研究は,ラット腹側海馬のNmethyl-D-aspartate刺激によって引き起こされるプレパルス阻害の過活動と破壊を再検討し,ロハロペリドールおよびクロザピンによる前処置による影響について比較した。 0.58
While the hyperactivity is thought to depend ondopamine receptor activation in the nucleus accumbens, the dopamine D2-classreceptor blocker haloperidol failed to antagonize the disruption of prepulseinhibition in previous studies. 高活性はアキュムベン核でのオンドパミン受容体の活性化に依存すると考えられているが、ドーパミンd2クラス受容体阻害薬であるハロペリドールは、以前の研究でプレパルス阻害の破壊を阻害できなかった。
訳抜け防止モード: 高活性は核アキュムベンのドーパミン受容体の活性化に依存すると考えられている。 ドパミンD2受容体遮断薬ハロペリドールは失敗した 以前の研究で プレパルス阻害の破壊を
0.67
However, an ameliorative effect of the atypicalneuroleptic clozapine on disruption of prepulse inhibition was suggested by ...In the present study, bilateral infusion of Nmethyl-D-aspartate ... into theventral hippocampus of Wistar rats increased ... disrupted prepulse inhibition.Both effects were observed immediately after infusion but disappeared 24h later.Injection of . しかし,非定型的神経性クロザピンのプレパルス阻害阻害作用に対する改善効果は, ... 本研究では, 両側のnmethyl-d-アスパラギン酸投与により, ウィスターラットの腹側海馬への投与が増加した。 0.67
., 45min prior to Nmethyl-D-aspartate infusion, totally antagonizedthe hyperactivity but did not affect the disruption of prepulse inhibition. メチル-d-アスパラギン酸投与前の45分は, 過敏性を完全に阻害したが, プレパルス阻害の破壊には影響しなかった。 0.52
We conclude that dopaminergic mechanisms are differentially involved in thehyperactivity and disruption of prepulse inhibition induced by Nmethyl-D-aspartate stimulation of the ventral hippocampus. ドパミン作動性機構は,nmethyl-d-aspartate 刺激による腹側海馬のプレパルス阻害の過敏性および破壊に関与すると結論づけた。 0.65
negative-activationO utputs2. negative-activationO utputs2。 0.54
Relation: negative-activation Inputs2. リレーショナル: 負のアクティベーション入力2。 0.58
Regulated Entity: prepulse inhibition1. 調節物質:プレパルス阻害1。 0.72
Supporting Sentences3. Sentences3のサポート。 0.71
Regulator Entity:Nmethyl-D-asp artate1. Regulator Entity:Nmethyl-D-asp artate1。 0.29
Mechanism Sentence メカニズム・センテンス 0.53
英語(論文から抽出)日本語訳スコア
Figure 2: Overview of the semi-automatic bootstrapping process for SuMe creation. 図2: SuMe 作成のための半自動ブートストラッププロセスの概要。 0.82
We use a mechanism classifier trained with small amount of labeled data to produce weakly-labeled training data for mechanism summarization. 我々は,少量のラベル付きデータで学習した機構分類器を用いて,機構要約のための弱いラベル付きトレーニングデータを生成する。
訳抜け防止モード: 少量のラベル付きデータで訓練されたメカニズム分類器を用いる メカニズムの要約のためのラベル付きトレーニングデータを生成する。
0.73
in biomedical abstracts, make use of related datasets, and devise a semi-automatic bootstrapping process that builds on a relatively small amount of labeling effort from domain experts. バイオメディカル抽象化では、関連するデータセットを使用し、ドメインの専門家による比較的少量のラベル付け作業に基づく半自動ブートストラッププロセスを作成する。 0.72
We introduce SuMe, a large scale dataset that we construct from abstracts of papers that report on biomedical mechanisms. バイオメディカルメカニズムを報告した論文の要約から構築した大規模データセットであるsumeを紹介する。 0.77
For a given abstract, we create a task instance that consists of a pair of biochemical entities (regulated and regulator), the relationship between them (positive/negative activation), and supporting sentences that provide information about this relationship, and a sentence that summarizes the mechanism underlying the relation (see Figure 1). ある抽象概念について、一対の生化学的実体(レギュレータとレギュレータ)、それらの関係(正/負の活性化)、およびそれらの関係に関する情報を提供する支持文からなるタスクインスタンスを作成し、その関係の基礎となるメカニズムを要約する文を作成する(図1参照)。 0.77
Creating such an instance would require a domain expert to read through an abstract and assess if it contains a biomedical mechanism and locate it if so. そのようなインスタンスを作成するには、ドメインエキスパートが抽象的な読み書きをし、それが生体医療機構を含んでいるかどうかを評価し、もしそうであればそれを見つける必要がある。
訳抜け防止モード: そのようなインスタンスを作成する ドメインの専門家は 抽象的に読み取って バイオメディカルなメカニズムを含むかどうかを もしそうなら 見つけ出す
0.76
This process is difficult to scale. このプロセスはスケールが難しい。 0.73
To address this issue, we introduce a semi-automated annotation process to create a large-scale set for development and automatic evaluation purposes and a clean small-scale manually curated subset of instances for manual evaluation. この問題に対処するために,開発用および自動評価用大規模セットを作成するための半自動アノテーションプロセスと,手作業による評価用インスタンスの小規模キュレートサブセットを導入する。 0.84
In particular, the necessary entities and relations are extracted using an existing biomedical information extraction system (Valenzuela-Esc´arcega et al , 2018). 特に、既存の生物医学情報抽出システム(valenzuela-esc ́arcega et al, 2018)を用いて必要な実体と関係を抽出する。
訳抜け防止モード: 特に 必要な実体と関係が抽出され 既存の生物医学情報抽出システム(valenzuela - esc ́arcega et al, 2018)の使用。
0.79
To extract mechanism summaries we first collected a small set of mechanism sentences with the help of domain experts. メカニズムの要約を抽出するために、まずドメインの専門家の助けを借りて、少数のメカニズムの文を収集しました。
訳抜け防止モード: 機構要約を抽出する 最初は ドメインの専門家の助けを借りて 一連の メカニズムの文章を集めました
0.72
We use this to bootstrap a larger sample by training a mechanism sentence classifier with a biomedical language model (LM) (Kanakarajan et al , 2021) and apply it to a large collection of about 611K abstracts that contained a conclusion sentence about the relationship between a pair of entities. これを用いて,生物医学的言語モデル(LM)を用いたメカニズム文分類器(Kanakarajan et al , 2021)を訓練し,一対の実体の関係に関する結論文を含む約611Kの抽象文の大規模なコレクションに適用することにより,より大きなサンプルをブートストラップする。 0.79
The subset that the classifier identifies as containing mechanism sentences is used to create 22K mechanism summarization instances. 分類器がメカニズム文を含むと識別するサブセットを使用して、22Kメカニズムの要約インスタンスを生成する。 0.70
Five domain experts manually analyzed a dataset sample of 125 instances to construct a clean partition for manual evaluation purposes. 5人のドメインエキスパートが125インスタンスのデータセットを手作業で分析し、手作業による評価のためにクリーンなパーティションを構築した。
訳抜け防止モード: 5人のドメイン専門家が125インスタンスのデータセットを手作業で分析 手動評価目的のクリーンパーティションを構築する。
0.71
The experts also concluded that the generated dataset has reasonable quality, i.e., 84%. 専門家はまた、生成されたデータセットは合理的な品質、すなわち84%であると結論付けた。 0.57
Note that it is common to tolerate some level of noise in the training partitions of automatically constructed NLP datasets. 自動的に構築されたNLPデータセットのトレーニングパーティションにおいて、ある程度のノイズを許容することは一般的である。 0.65
As an example among many, the popular relation extraction dataset by Yao et al (2010) contains over 20% noise. 例えば、Yao et al (2010)による一般的な関係抽出データセットには20%以上のノイズが含まれている。 0.77
The overall pipeline is demonstrated in Figure 2. パイプライン全体の例を図2に示します。 0.70
In summary, the contributions of this paper are the following: 要約すると、本稿の貢献は以下のとおりである。 0.71
• We introduce the SuMe dataset, the first dataset towards summarizing biomedical mechanisms and the underlying relations between entities. •SuMeデータセットは,生物医学的メカニズムと実体間の基盤となる関係を要約するための最初のデータセットである。 0.72
The dataset contains 22K mechanism summarization in- データセットには22Kメカニズムの要約が含まれている。 0.46
stances collected semi-automatically, an evaluation partition of 125 instances that were corrected by domain experts. スタンスは半自動で収集され、125インスタンスの評価分割はドメインの専門家によって修正された。 0.53
We also create a conclusion generation task from the larger set of 611K abstracts which we use as a pretraining task for mechanism generation models. また,機構生成モデルの事前学習タスクとして使用する,より大規模な611K抽象集合から結論生成タスクを作成する。 0.79
• We benchmark several state-of-the-art language models for the task of generating the underlying biochemical relations and the corresponding mechanism sentences. • 基礎となる生化学的関係とそれに対応するメカニズム文を生成するために,いくつかの最先端言語モデルをベンチマークする。 0.64
We train general domain LMs (GPT2 (Radford et al , 2019), T5 (Raffel et al , 2020a), BART (Lewis et al , 2019)), as well as science domain adapted versions(scientific GPT2 (Papanikolaou and Pierleoni, 2020), and SciFive (Phan et al , 2021)) and benchmark their performance through both automatic evaluation and manual evaluation on curated evaluation samples. GPT2(Radford et al , 2019)、T5(Raffel et al , 2020a)、BART(Lewis et al , 2019)、科学分野に適応したバージョン(Scientific GPT2(Papanikolaou and Pierleoni, 2020)、SciFive(Phan et al , 2021)を訓練し、キュレートされた評価サンプルの自動評価と手作業によるパフォーマンスのベンチマークを行う。 0.74
• The evaluation by domain experts suggests that this is a high quality dataset coupled with a challenging task, which deserves further investigation. • ドメインの専門家による評価は、これは高い品質のデータセットであり、さらに調査に値する課題と結合していることを示唆している。
訳抜け防止モード: ・ドメイン専門家の評価は、そのことを示唆する これは高品質なデータセットで 挑戦的なタスクと結合する さらなる調査に値する
0.72
• To encourage reproducibility and further research, we release the dataset and the code used during its creation. •再現性とさらなる研究を促進するために、データセットとその作成時に使用されるコードをリリースします。 0.74
Both are available at SuMe webpage. どちらもSuMeのWebページで入手できる。 0.61
2. Related Work Deep learning models have been widely used in different NLP applications (Gaonkar et al , 2020; Bastan et al., 2020; Keymanesh et al , 2021; Heidari et al , 2021). 2.関連業務 ディープラーニングモデルはさまざまなNLPアプリケーションで広く使われている(Gaonkar et al , 2020; Bastan et al., 2020; Keymanesh et al , 2021; Heidari et al , 2021)。 0.78
Amongst these applications, biomedical NLP is using these models that looks at extracting (Alam et al , 2018; Mulyar et al , 2021; Giorgi and Bader, 2020), organizing (Yuan et al , 2020; Zhao et al , 2020; Lauriola et al., 2021), and summarizing information (Cohan et al , 2018) from scientific literature. これらの応用のうち、生物医学的nlpは、これらのモデルを用いて、(alam et al , 2018; mulyar et al , 2021; giorgi and bader, 2020)、組織化(yuan et al , 2020; zhao et al , 2020; lauriola et al., 2021)、科学文献からの要約情報(cohan et al , 2018)を抽出している。 0.86
Within this broad context, the mechanism summarization task we introduce broadly relates to previous work in reading and generating information from scientific texts. この広い文脈の中で、我々が導入したメカニズムの要約タスクは、科学的テキストから情報を読み、生成する以前の作業と広く関連している。 0.53
Most work in this area focus on generating summaries using scientific publication and some times in combination with external information (Yasunaga et al , 2019; DeYoung et al , 2020; Collins et al , 2017) Some works even seek to generate part of the scientific papers. この分野のほとんどの研究は、科学出版物を使った要約や、外部情報(Yasunaga et al , 2019; DeYoung et al , 2020; Collins et al , 2017)と組み合わせて作成することに焦点を当てている。
訳抜け防止モード: この分野のほとんどの仕事は 科学論文を用いた要約の作成 また、外部情報(yasunaga et al, 2019 ; deyoung et al, 2020 ; collins et al, 2017)と組み合わせて、いくつかの研究は科学論文の一部を生成しようとしている。
0.82
For example, TLDR (Cachola et al , 2020) introduces a task and a dataset to generate TLDRs (Too Long; Didn’t Read) for papers. 例えば、TLDR(Cachola et al , 2020)では、論文のためにTLDRを生成するタスクとデータセット(Too Long; Didn’t Read)が導入されている。 0.70
They exploit titles and an auxiliary training signal in their model. 彼らは自身のモデルでタイトルと補助訓練信号を利用する。 0.71
ScisummNet (Yasunaga et al , 2019) introduces a large manually ScisummNet (Yasunaga et al , 2019) が手作業で大規模に導入 0.79
RetrieveAbstractsExt ractRelation & EntitiesMechanism ClassifierModelNon MechanismMechanismCo nclusion GenerationModelMecha nism GenerationModelPretr ainingTrainingPertai ned modelFinetuned modelLabel RetrieveAbstracts Extract Relation & EntitiesMechanism ClassifierModelNon MechanismMechanism Conclusion GenerationModelMecha nism GenerationModelPretr ainingTrainingPertai ned ModelFinetuned ModelLabel 0.19
英語(論文から抽出)日本語訳スコア
annotated dataset for generating paper summaries by utilizing their abstracts and citations. 抄録と引用を利用して用紙要約を生成するための注釈付きデータセット。 0.56
TalkSumm (Lev et al , 2019) generates summaries for scientific papers by utilizing videos of talks at scientific conferences. TalkSumm (Lev et al , 2019)は、科学会議での講演のビデオを利用して、科学論文の要約を生成する。 0.72
PaperRobot (Wang et al , 2019) generates a paper’s abstract, title, and conclusion using a knowledge graph. PaperRobot(Wang et al , 2019)は、知識グラフを使用して論文の要約、タイトル、結論を生成する。 0.77
FacetSum (Cohan et al , 2018) used Emerald journal articles to generate 4 different abstractive summaries, each targeted at specific sections of scientific documents. FacetSum (Cohan et al , 2018) はエメラルド誌の論文を用いて4つの異なる抽象的な要約を作成し、それぞれが特定の科学文書のセクションをターゲットにしている。
訳抜け防止モード: facetsum (cohan et al, 2018) emerald journal の記事 科学文書の特定のセクションを対象とする4つの異なる抽象要約を生成する。
0.77
In addition to the specifics of the output that we target, our work is different from all these other works because our proposed summarization task is grounded with the underlying biomedical event discussed, rather than focusing on generic summarization, which may lose the connection to the underlying biology that is the core material discussed in these papers. 提案する要約課題は,本論文で論じる中核物質である基盤生物学とのつながりを欠く可能性のある総合的な要約に焦点をあてるのではなく,基礎となる生物医学的な出来事に基礎を置いているため,我々の研究は他のすべての成果と異なる。 0.69
We address mechanism generation, which can be seen as a combination of explainable relation extraction and summarization. 本稿では,説明可能な関係抽出と要約を組み合わせたメカニズム生成について述べる。
訳抜け防止モード: 我々はメカニズム生成に取り組み 説明可能な関係抽出と要約の組み合わせとして見ることができる。
0.85
There is a huge body of work that addresses explainable methods (e g , relation extraction (Shahbazi et al , 2020) or explainable QA (Thayaparan et al , 2020)). 説明可能な方法(例えば、関係抽出(Shahbazi et al , 2020)、説明可能なQA(Thayaparan et al , 2020))に対処する膨大な作業体が存在する。 0.77
Many prior works in relation and event extraction treat explanations as the task of selecting or ranking sentences that support a relation (e g , (Shahbazi et al , 2020; C¸ ano and Bojar, 2020; Yasunaga et al , 2019)). 関連性やイベント抽出に関する多くの先行研究は、関係を支持する文の選択やランク付けのタスクとして説明を扱っている(例えば、Shahbazi et al , 2020; C > ano and Bojar, 2020; Yasunaga et al , 2019)。 0.80
Our work differs from these in that it focuses on generating mechanisms underlying a relation from supporting sentences, rather than identifying existing sentences. 我々の研究は、既存の文を識別するよりも、支持する文から関係を基礎づけるメカニズムの生成に焦点を当てている点において、これらと異なる。 0.44
3. Mechanism Summarization 3.メカニズムの要約 0.89
Our goal is to develop a task and a dataset that pushes models towards distilling the mechanisms that underlie the relationships between entities from biomedical literature. 我々のゴールは、生物医学文献の実体間の関係を基盤とするメカニズムの蒸留に向けてモデルを推し進めるタスクとデータセットを開発することである。 0.74
From a language processing perspective, we can view mechanisms as a form of explanation that justifies the relationship or connection between entities. 言語処理の観点からは、メカニズムをエンティティ間の関係や関連を正当化するための説明の形式として捉えることができる。 0.71
From a biomedical science perspective, a mechanism provides two types of explanatory information, which we use to characterize mechanism sentences: Why is the relation true? 生体医学的な観点からは、メカニズムは2種類の説明情報を提供し、機構文を特徴付けるために使用する:なぜ関係は真なのか? 0.81
A sentence can be a mechanism, if it explains why the relation exists between the two main entities. 文は、なぜ二つの主実体の間に関係があるのかを説明すると、メカニズムとなる。 0.70
For example, one protein (say A) might be up-regulate another (say B), which in turn inhibits yet another protein (say C). 例えば、あるタンパク質(例えばA)は、別のタンパク質(例えばB)を調節し、別のタンパク質(例えばC)を阻害する。 0.80
This provides the causal reasoning to conclude the relation that protein A inhibits protein C. How does the relation come about? これは、タンパク質aがタンパク質cを阻害する関係を結論付けるための因果的推論を提供する。 0.80
Another kind of explanatory information is the one that describes the process or manner in which the relation exists between the pair of entities. もう一つの説明的情報は、一対の実体の間に関係が存在する過程や方法を記述するものである。 0.82
For example, one protein (say A) may activate another protein (say B) via a specific process. 例えば、あるタンパク質(例えばA)は特定のプロセスを介して別のタンパク質(例えばB)を活性化することができる。 0.73
These provide a way to specify what constitutes a mechanism sentence and help us to locate mechanism sentences in the literature. これらによって、メカニズム文を構成するものを指定することができ、文献中のメカニズム文を見つけるのに役立ちます。
訳抜け防止モード: これらは 機構文を構成するものを特定し、文学における機構文の特定を支援する。
0.74
In particular, we consider abstracts which discuss studies that lead to conclusions about such mechanisms. 特に,このようなメカニズムに関する結論につながる研究を議論する抽象概念を考察する。 0.79
Typically, these abstracts provide a short set of sentences that describe the goals of the study, the methods used, the experimental observa- 典型的には、これらの要約は研究の目的、使用する方法、実験的なオブザーバを記述した短い文セットを提供する。
訳抜け防止モード: 典型的には、これらの要約は短い文のセットを提供する。 研究の目的, 方法, 実験観察について-
0.78
tions, the findings, which can be used to substantiate the conclusions that establish the relation of interest, and the mechanism underlying the relation. 興味の関連性を確立する結論と、その関係の基盤となるメカニズムを裏付けるのに使用できる研究結果である。 0.64
This suggests a language processing task that tests for ability to understand biomedical mechanisms: given the preceding sentences in the abstract can a model accurately generate the underlying mechanism? これは、バイオメディカルなメカニズムを理解する能力をテストする言語処理タスクを示唆している。
訳抜け防止モード: これは生物医学のメカニズムを理解する能力をテストする言語処理タスクを示唆します 要約中の先行文が与えられた場合,モデルが根底にあるメカニズムを正確に生成できるか?
0.74
3.1. Task Definition Given a set of sentences from a scientific abstract (referred to as supporting sentences) and a pair of entities (ei, ej) that are the focus of the abstract (referred to as focus entities), generate the conclusion sentence that explains the mechanism behind the pair entities and output a relation that connects these entities (e g , positive activation(ei, ej)). 3.1. タスク定義(Task Definition) 抽象の焦点である科学的な抽象(補足文として参照)と一対の実体(e,ej)からの一連の文(e,ej)を与えられた場合、ペアの実体の背後にあるメカニズムを説明する結論文を生成し、これらの実体(例えば、正の活性化(e,ej))を接続する関係を出力する。 0.55
Figure 1 shows an example of such a tuple of supporting sentences, focus entities, relation, and mechanism sentence. 図1は、このような支持文、焦点エンティティ、関係、機構文のタプルの例を示しています。 0.68
As the example illustrates, mechanism sentences describe some pathway often involving another entity or a process (e g , dopaminergic mechanism), require identifying and combining information from multiple relevant sentences, and nontrivial inferences regarding the relationship between the entities (e g , recognizing that the different effects on prepulse inhibition imply differential involvement). 例が示すように、メカニズム文は、他の実体またはプロセス(例えばドーパミン作動性メカニズム)を含むいくつかの経路を記述し、複数の関連する文からの情報の識別と結合を必要とし、エンティティ間の関係に関する非自明な推論を必要とする(例えば、前パルス阻害に対する異なる影響は、異なる関与を意味する)。 0.72
The task definition suggests what we need to build a dataset. タスク定義は、データセットを構築するために必要なものを示しています。 0.57
Given an abstract of a scientific literature we need four pieces of information: (1) the two focus entities of the abstract; (2) the relation between entities; (3) sentences from the abstract in support of this relation; and (4) the conclusion sentence where the mechanism underlying the relation is summarized. 科学文献の要約を与えられた場合、(1)抽象の2つの焦点の実体、(2)実体間の関係、(3)この関係を支持する抽象の文、(4)その関係の基礎となるメカニズムが要約された結論文の4つの情報が必要である。 0.78
4. SuMe Dataset 4. SuMe データセット 0.89
We aim to create a large scale dataset for the mechanism summarization task defined above. 我々は,上述の機構要約タスクのための大規模データセットの作成を目指している。 0.70
However, identifying instances for this task requires domain expertise and cannot be easily done at scale. しかし、このタスクのインスタンスを識別するにはドメインの専門知識が必要であり、大規模で簡単には実行できない。 0.50
Instead, here we employ a bootstrapping process, where we first annotate a small amount of data to build a mechanism sentence classifier that can then helps us collect a large scale dataset for mechanism summarization. ここではブートストラッププロセスを使用し、まず少量のデータを注釈付けして、メカニズムの要約のための大規模なデータセットの収集を支援するメカニズム文分類器を構築します。 0.77
The key observation here is that identifying sentences that express a mechanism is a simpler task than the targeted mechanism summarization task, and, thus, should be learnable from smaller amounts of data. ここでのキーとなる観察は、メカニズムを表現する文を特定することは、目的のメカニズム要約タスクよりも単純なタスクであり、従って、少ない量のデータから学習可能であることである。 0.71
We outline the process we use for creating our mechanism summarization dataset, SuMe, and an expert evaluation of its quality next. 私たちは、メカニズム要約データセット、sumeの作成に使用するプロセスと、その品質に関する専門家の評価を概説します。
訳抜け防止モード: 使用するプロセスの概要を述べる メカニズムの要約データセット、SuMeを作成し、次にその品質のエキスパート評価を行います。
0.72
4.1. SuMe Construction Process We construct SuMe using biomedical abstracts from the PubMed open access subset2. 4.1. sume構築プロセス pubmed open access subset2の生物医学的抽象を用いてsumeを構築する。 0.55
Starting from 1.1M scientific papers 3, we use the following sequence of bootstrapping steps to construct SuMe. 1.1Mの科学論文3から始まり、次の一連のブートストラップステップを用いてSuMeを構築する。 0.61
The following steps are also elaborated in Figure 3. 以下の手順も図3に示します。 0.67
2https://pubmed.ncbi .nlm.nih.gov 3We used all papers available in NIH active directory 2https://pubmed.ncbi .nlm.nih.gov 3 NIHのアクティブディレクトリで利用可能なすべての論文を使用しました。 0.39
英語(論文から抽出)日本語訳スコア
Figure 3: The bootstrapping pipeline for SuMe collection and human evaluation. 図3: SuMeコレクションと人的評価のためのブートストラップパイプライン。 0.78
The main idea behind the pipeline is to collect relatively easy to acquire judgments from domain experts to then bootstrap and generate a weakly-labeled large training corpus. パイプラインの背後にある主なアイデアは、ドメインの専門家から判断を比較的簡単に集めて、ブートストラップし、弱いラベルの大きなトレーニングコーパスを生成することだ。 0.60
We further assess the quality of the resulting dataset through another round of human evaluation, which also yields a smaller curated evaluation dataset. また, 得られたデータセットの品質を人体評価の別のラウンドで評価し, キュレートされた評価データセットを小さくする。 0.76
1. Finding Conclusion Sentences: First, we use simple lexical patterns to find abstracts with a clearly specified conclusion sentence. 1. 結論文の発見: まず、簡単な語彙パターンを用いて、明確な結論文で抽象文を見つける。 0.73
All abstracts which has any form of conclude word (conclusion, concluded, concluding, concludes, etc.) at the very end of the text are extracted here. テキストの末尾にある結語(結語、結語、結語、結語、結語など)の任意の形態の抽象語はここで抽出される。 0.50
We use this matching process to also split the abstracts into the set of supporting sentences (the ones that lead up to the conclusion) and one conclusion sentence (the one that includes the conclude word). 我々は、このマッチングプロセスを用いて、抽象語を支援文(結論に至るもの)と1つの結論文(結論語を含むもの)のセットに分割する。 0.66
2. Extracting Main Entities & Relation Starting with the abstracts which are now in the form of (supporting sentences, conclusion sentence), we then run a biomedical relation extractor, REACH (Valenzuela-Esc´arcega et al , 2018), which can identify protein-protein and chemical-protein relations between entities. 2) 現在(支持文,結論文)の抽象的な部分から主エンティティと関係を抽出し,生物医学的関係抽出装置REACH(Valenzuela-Esc ́arcega et al, 2018)を運用し,エンティティ間のタンパク質タンパク質および化学タンパク質の関係を同定する。 0.86
In this work, we focus on the relations where one entity is the controller and another entity is the controlled entity and the relation between them is either positive/negative activation or positive/negative regulation. 本研究では,1つのエンティティがコントローラであり,もう1つのエンティティが制御エンティティであり,それらの関係が正・負のアクティベーションあるいは正・負の規制である関係に焦点を当てる。 0.68
If an abstract does not contain any such relation, we keep it for the pretraining step (as described in Section 5.3); otherwise we use it for the main task. 抽象がそのような関係を含まない場合は、事前学習ステップ(セクション5.3で説明されているように)に保持し、さもないとメインタスクに使用します。 0.72
3. Filtering for Mechanism Sentences: We then filter out the instances to only retain those whose conclusion sentences are indeed a mechanism sentence. 3. 機構文のフィルタリング: 次に、結果文が実際に機構文であるものだけを保持するために、インスタンスをフィルタリングする。 0.70
To this end, we devised a bootstrapping process where we first collect supervised data to train a classifier. そこで我々は,まず教師付きデータを収集し,分類器を訓練するブートストラッピングプロセスを開発した。 0.65
To collect likely mechanism sentences we made use of the ChemProt (Peng et al , 2019) relation extraction dataset which contains sentences annotated with positive and negative regulation relations between entities. そこで我々は,ChemProt(Peng et al , 2019)関係抽出データセットを用いて,エンティティ間の正および負の規則関係を付加した文を抽出した。 0.71
However, not all of these sentences necessarily explain the mechanism behind these relations. しかし、これらすべての文が必ずしもこれらの関係のメカニズムを説明するわけではない。 0.55
We asked 21 experts (grad students in a biomedical department) to inspect each sentence and rate whether it explains the mechanism behind the ChemProt annotated relation on 我々は21人の専門家(医学部大学院生)に各文の検査とChemProtの注釈付き関係のメカニズムの説明を依頼した。 0.76
a four-point Likert scale. 4点類似のスケール。 0.73
For each sentence, an annotator can select between Clearly a Mechanism, Plausibly a Mechanism, Clearly not a Mechanism, and Not Sure. それぞれの文に対して、注釈器は、明確なメカニズム、おそらくはメカニズムを選べるが、明らかにメカニズムではない。 0.69
Each sentence is annotated by three experts and we find the inter-annotator agreement between users to be κ = 73% (Fleiss Kappa (Landis and Koch, 1977)). 各文は3人の専門家によって注釈付けされており、ユーザ間のアノテーション間の合意はκ = 73%である(Fleiss Kappa (Landis and Koch, 1977))。 0.75
The final label for a sentence is selected based on the majority voting after combining Clearly a Mechanism and Plausible a Mechanism labels. 明快なメカニズムと妥当なメカニズムラベルを組み合わせることで、多数決に基づいて文章の最後のラベルが選択される。 0.75
Finally, each sentence is labeled as a Mechanism, or Non-Mechanism. 最後に、各文はメカニズムまたは非メカニズムとしてラベル付けされる。 0.69
The resulting dataset contained 439 Mechanism sentences (264 Clearly, 175 Plausibly) and 447 Non-Mechanism sentences. その結果得られたデータセットは、439のメカニズム文(264、明らかに175)と447の非機構文を含んでいた。 0.59
Using this small scale mechanism sentence dataset, we train binary classifiers to identify mechanism sentences, where the positive label indicates that the underlying sentence is a mechanism sentence. この小さな機構文データセットを用いて,二項分類器を訓練して機構文を識別し,その下位文が機構文であることを正のラベルで示す。 0.69
We fine-tuned multiple transformer-based models: BioBERT (Lee et al , 2020), SciBERT (Beltagy et al , 2019), BiomedNLP (Gu et al , 2020), and BioELECTRA (Kanakarajan et al , 2021) models. BioBERT (Lee et al , 2020), SciBERT (Beltagy et al , 2019), BiomedNLP (Gu et al , 2020), BioELECTRA (Kanakarajan et al , 2021) モデルを微調整した。 0.65
Each model is fitted with a non-linear classification layer that takes the output representation for the [CLS] token. 各モデルは、[CLS]トークンの出力表現を取る非線形の分類層を備える。 0.69
The classification layer and top three layers of the transformer are finetuned using the annotated data4. アノテーション付きデータ4を用いて、トランスの分類層と上位3層を微調整する。 0.76
We used 80%-20% split for train-test. 電車の試験に80%~20%の分割を使用した。 0.58
BioELECTRA performed the best with 74% macro F1 for mechanism sentence classification. BioELECTRA は 74% のマクロ F1 で最善を尽くした。 0.66
We use this trained mechanism sentence classifier to label all conclusion sentences from the previous step and instances which are predicted to be mechanism sentences are used to create the mechanism generation of the SuMe dataset. 我々は、この学習された機構文分類器を用いて、前段階から全ての結論文をラベル付けし、機構文と予測されるインスタンスを用いて、sumデータセットのメカニズム生成を行う。 0.74
We separate out the abstracts which are predicted to have non-mechanism sentences as additional data. 非機械文を付加データとして予測する抽象概念を分離する。
訳抜け防止モード: 抽象概念を分離し 追加データとして非機構文を持つと予測される。
0.65
We 4All models used are base versions with 768 hidden size and 12 layers. 私たち 4つのモデルはすべてベースバージョンで、768の隠蔽サイズと12層のレイヤーがある。 0.63
We set the learning rate to be 2e − 4 with a decay of 0.001 我々は学習速度を0.001の2e − 4に設定した。 0.76
Collect Pubmed AbstractsFilterout Abstracts with no conclusionExtract Relation &Entities for Conclusions? 結論なしの Pubmed AbstractsFilterout Abstracts を収集する。 0.52
e1,e2,ree1,e2,reHuma n AnnotatedMechanism Labels++--Mechanism ClassifierModelTrain ingPredictionMachine Generated Mechanism Label? e1,e2,ree1,e2,reHuma n AnnotatedMechanism Labels++--Mechanism ClassifierModelTrain ingPrediningMachine Generated Mechanism Label? 0.30
e1,e2,ree1,e2,rePret rain DataTrain Datae1,e2,reConclusi on GenerationModelMecha nism GenerationModelGener atedMechanismsActorA ctorActorHumanEvalua tionPretrainingTrain ingSeparate Supporting Sentences from Conclusion SentenceS,CS,CS,CREA CHIEChemProt DatasetActorActorAct orHuman AnnotationPrediction OutputConclusion SentencesActorActorA ctorHumanQualityAsse ssmentSTEP 3STEP 1STEP 2SuMeDatasetBenchmar king SuMe e1,e2,ree1,e2,rePret rain DataTrain Datae1,e2,reConclusi on GenerationModelMecha nism GenerationModelGener atedMechanismsActorA ctorHumanEvaluationP retrainingTrainingSe parate Supporting SentenceS,CS,CREACHI EChemProt DatasetActorActorAct orHuman AnnotationPrediction OutputConclusion SentencesActorActorA ctorHumanQualityAsse ssmentSTEP 3STEP 1STEP 2SuMeDatasetBenchmar king SuMe 0.17
英語(論文から抽出)日本語訳スコア
Dataset Abstracts データセットの抽象化 0.51
Avg. #words in conc. avgだ キーワードはconc。 0.56
Avg. #words in supp. avgだ supp の #words。 0.67
Avg. #sent. avgだ #sent。 0.48
in supp. supp (複数形 supps) 0.48
#Unique controller #Unique controlled #Unique pair entities コントローラ#Unique制御#Uniqueペアエンティティ 0.52
#Unique entities Train 20765 33.7 187.5 12.15 8094 6684 19229 12685 #単行本 Train 20765 33.7 187.5 12.15 8094 6684 19229 12685 0.31
Dev 1000 34.9 187.9 12.44 759 717 988 1357 Dev 1000 34.9 187.9 12.44 759 717 988 1357 0.37
Test 1000 33.5 186.7 12.33 777 687 989 1364 Test 1000 33.5 186.7 12.33 777 687 989 1364 0.37
Table 1: Dataset Statistics: Each dataset contains a number of unique abstracts, a supporting set (supp.), a mechanism sentence (conc.) a pair of entities. 表1: データセット統計: 各データセットには、いくつかのユニークな抽象概念、サポートセット(supp.)、メカニズム文(conc.)、一対のエンティティが含まれている。 0.75
The first entity is called the regulator entity (regulator) and the second one is called the regulated entity (regulated) 第1のエンティティは規制機関(regulator)と呼ばれ、第2のエンティティは規制機関(regulator)と呼ばれる。 0.81
can define a broader conclusion generation task, which can be be used as a pre-training task for the generative models that eventually use for the mechanism summarization task (as we describe in Section 5.3). 機構要約タスクに最終的に使用される生成モデルの事前学習タスクとして使用できる、より広い結論生成タスクを定義することができる(第5条第3項で述べたように)。 0.77
The above procedure results in a dataset that allows us to define the following mechanism summarization task: Given a set of supporting sentences from an abstract and a pair of entities (ei, ej), generate a relation that connects these entities and a sentence that explains the mechanism that was the focus of the study. 抽象と一対のエンティティ(ei, ej)からのサポート文の集合が与えられたとき、これらのエンティティと研究の焦点となったメカニズムを説明する文とを関連付ける関係を生成します。
訳抜け防止モード: 上述の手順は、以下のメカニズムの要約タスクを定義できるデータセットとなる: 抽象と一対のエンティティ(ei, ei)からのサポート文の集合が与えられる。 ej ) これらの実体と文をつなぐ関係を生成する 研究の焦点となったメカニズムを説明します。
0.82
The statistics of the dataset are shown in Table 1. データセットの統計はテーブル1に示されています。 0.83
The dataset consists of three subsets, the training set with about 20k instances which the parameters of the model are trained with, the validation set (Dev) for tuning hyper parameters and choosing the best model, and the test set which is not used until the final evaluation. データセットは3つのサブセットで構成されており、モデルのパラメータがトレーニングされる約20kインスタンスと、ハイパーパラメータをチューニングして最適なモデルを選択するための検証セット(Dev)と、最終評価まで使用されないテストセットである。 0.82
There is also a small set of 125 instances which is curated by experts and is used as another test set but is not reported in this table. 125インスタンスの小さなセットもあり、専門家によってキュレーションされ、別のテストセットとして使用されるが、この表では報告されていない。 0.66
4.2. SuMe Quality Our process creates a large scale, albeit, a bootstrapped dataset that can be used to train large language generation models. 4.2. SuMe Quality 私たちのプロセスは、大規模で、大規模な言語生成モデルのトレーニングに使用できるブートストラップ付きデータセットを生成する。 0.53
What is the quality of this dataset? このデータセットの品質は何ですか? 0.84
To assess this we asked five biomedical experts to evaluate a random sample of 125 sentences from the dataset. これを評価するために,5人のバイオメディカル専門家に,データセットから125文のランダムなサンプルを評価するよう依頼した。
訳抜け防止モード: これを評価するために バイオメディカルの専門家5人に データセットから125文のランダムサンプルを評価する。
0.71
The experts were given the set of input supporting sentences, the potential mechanism sentence, and the relation between main entities. 専門家は、入力支援文のセット、潜在的メカニズム文、主エンティティ間の関係を与えられた。 0.55
Our aim is two fold, first to evaluate the quality of the data collection process, second to collect a clean human evaluated dataset which can be used as an extra test set. 目的は、まずデータ収集プロセスの品質を評価すること、次に、追加のテストセットとして使用できるクリーンな人間評価データセットを収集することである。 0.69
The experts were asked to assess errors in the relation label, mechanism, and the need for background knowledge: 専門家は、関係ラベル、メカニズム、背景知識の必要性の誤りを評価するよう依頼された。 0.64
1. Relation Errors: Is the expected output relation 1.関係エラー:期待される出力関係か 0.79
associated with the instance valid? インスタンスの有効性に関連しているか? 0.50
2. Mechanism vs. Non-mechanism: Is the output sentence expected for this sentence an actual mechanism sentence? 2.メカニズム対非機械論:この文の出力文は実際のメカニズム文か? 0.68
3. Background Knowledge: Can the information in the output sentence concluded from the information in the input supporting sentences? 3.背景知識:入力支援文の情報から出力文の情報は結論づけられるか? 0.68
Quality Entities & Relation Extraction Mechanism Sentence Classifier 品質 エンティティと関係抽出メカニズム 文分類器 0.76
Instances w/o noise インスタンスw/oノイズ 0.63
Correct 90% 85% 84% 正しい90% 85% 84% 0.82
Table 2: Dataset Quality: We asked three main questions. 表2: データセットの品質: 3つの主な質問をしました。 0.66
This table shows what percentage of each category is acceptable. この表は各カテゴリーのどの割合が受け入れられるかを示す。 0.71
The last question shows what percentage of the sentences are approved in all questions. 最後の質問は、すべての質問でどの割合の文が承認されているかを示す。 0.53
The results of the dataset evaluation are shown in Table 2. データセット評価の結果を表2に示す。 0.67
Only 16% of the data has some error either from relation extraction (question 1) or contains a nonmechanism output sentence (question 2). データのうち16%だけが関係抽出(クエスト1)または非機械的な出力文(クエスト2)から何らかのエラーを持つ。 0.62
This evaluation shows that the generated dataset is of reasonable quality, and can serve as a meaningful resource for training models for mechanism summarization. この評価は、生成されたデータセットが妥当な品質であることを示し、メカニズムの要約のためのモデルをトレーニングするための有意義なリソースとして役立てることができる。 0.64
The clean subset that has no relation or mechanism errors is used as an extra test for evaluation. 関係やメカニズムエラーのないクリーンサブセットは、評価のための余分なテストとして使用される。 0.68
Last, the experts also rated 15% of the instances to require background knowledge (question 3)indicating the fraction of hard instances. 最後に、専門家は、バックグラウンド知識を必要とするインスタンスの15%を評価しました(クエスチョン3)。 0.60
5. Evaluation Our evaluation focuses on the following questions: 5.評価 評価は以下の質問に焦点をあてる。 0.72
1. Benchmarking: What is the performance of generic and domain-adapted large scale language generation models on SuMe? 1. ベンチマーク: SuMe上でのジェネリックおよびドメイン適応型大規模言語生成モデルのパフォーマンスはどのようなものか? 0.74
2. Effect of pretraining: What is the impact of using 2.プレトレーニングの効果:使用の影響について 0.81
the additional data via pretraining? 事前トレーニングによる追加データ? 0.82
3. Effect of modeling supporting sentences: What is the impact of selecting a subset of supporting sentences? 3.支援文のモデル化の効果:支援文のサブセットの選択が与える影響について 0.73
4. Error analysis: What are the main failure modes of 4. エラー分析: 主な障害モードは何か。 0.74
language generation models? 5.1. 言語生成モデル? 5.1. 0.55
Experimental Setup We use SuMe to benchmark language generation models and measure their ability to correctly identify the relation between the focus entities and to summarize the mechanism behind the relation based on the input sentences from the abstract. 実験的なセットアップでは、sumeを使用して言語生成モデルをベンチマークし、フォーカスエンティティ間の関係を正確に識別する能力を測定し、抽象からの入力文に基づいて関係の背後にあるメカニズムを要約します。 0.71
Models: We compare pretrained GPT-2 (Radford et al , 2019), T5 (Raffel et al , 2020b), BART (Lewis et al , 2019) models and two domain-adapted models, GPT2Pubmed (Papanikolaou and Pierleoni, 2020), and SciFive (Phan et al , 2021), which were trained on scientific literature. モデル: GPT-2 (Radford et al , 2019), T5 (Raffel et al , 2020b), BART (Lewis et al , 2019) モデルと2つのドメイン適応モデル, GPT2Pubmed (Papanikolaou and Pierleoni, 2020), SciFive (Phan et al , 2021) を比較した。
訳抜け防止モード: モデル : 事前訓練GPT-2(Radford et al, 2019)の比較 T5 (Raffel et al, 2020b ), BART (Lewis et al, 2019 ) モデル そして2つのドメイン対応モデル、GPT2Pubmed(Ppaanikol aouとPierleoni、2020年)。 そしてSciFive(Phan et al, 2021)は科学文献の教育を受けた。
0.85
Evaluation Metrics: We conduct both automatic and manual evaluation of the model outputs. 評価指標: モデル出力の自動評価と手動評価の両方を行う。 0.77
Relation Generation (RG): The models are supposed to first generate the relation type (positive or negative regulation) and then generate the mechanism that underlies this relation. 関係生成(RG): モデルはまず、関係タイプ(正または負の規則)を生成し、その後、この関係の基盤となるメカニズムを生成する。 0.86
We evaluate the model’s output as we would for a corresponding classification task, i.e., the generated relation is deemed correct if it exactly matches the correct relation name. モデルの出力を対応する分類タスクとして評価する。つまり、生成した関係が正しい関係名と正確に一致する場合、その関係は正しいとみなす。 0.78
We report F1 numbers for this binary classification task. このバイナリ分類タスクのF1番号を報告する。 0.75
Mechanism Generation: We evaluate the quality of the generated explanations using two language generation メカニズム生成:2つの言語生成を用いて生成した説明の質を評価する 0.81
英語(論文から抽出)日本語訳スコア
Model BART GPT2 Model BART GPT2 0.47
T5 GPT2-Pubmed T5 GPT2-Pubmed 0.31
SciFive RG (F1) BLEURT Rouge-1 Rouge-2 Rouge-L はさみ RG (F1) BLEURT Rouge-1 Rouge-2 Rouge-L 0.32
76 74 72 78 79 76 74 72 78 79 0.43
42.49 44.19 44.41 46.33 47.81 42.49 44.19 44.41 46.33 47.81 0.22
46.54 46.54 48.26 48.37 52.10 46.54 46.54 48.26 48.37 52.10 0.22
25.92 28.32 27.63 29.55 32.62 25.92 28.32 27.63 29.55 32.62 0.22
35.34 38.78 38.77 40.19 43.31 35.34 38.78 38.77 40.19 43.31 0.22
Table 3: Benchmarking performance of strong language generation models and some domain-adapted models. 表3: 強い言語生成モデルといくつかのドメイン適応モデルのベンチマークパフォーマンス。 0.78
We present standard automatic evaluations measures for the mechanism sentence generation task along with F1 for the generated relations. 本稿では,生成関係のf1とともに,機構文生成タスクのための標準自動評価手法を提案する。 0.64
The science domain versions of both GPT2 and T5 work better than the original versions. GPT2とT5の科学領域バージョンは、オリジナルのバージョンよりもうまく動作する。 0.81
metrics: the widely-used ROUGE (Lin, 2004) scores that rely on lexical overlap, and BLEURT scores (Sellam et al , 2020) which aim to capture semantic similarity between the generated and the gold reference. メトリクス:広く使用されているROUGE(Lin, 2004)とBLEURTスコア(Sellam et al , 2020)は、生成されたものと金の参照とのセマンティックな類似性を捉えることを目的としている。 0.72
We use a recent version, the BLEURT-20 model that has been shown to be more effective (Pu et al , 2021) . 我々は、より効果的であることが示されているBLEURT-20モデル(Pu et al , 2021)を用いている。 0.81
We compare the generated text as the hypothesis against the actual text as the reference. 生成されたテキストを、実際のテキストを参照とする仮説と比較する。 0.72
Fine-tuning and Training Details: All models are original base models published by HuggingFace that were fine-tuned on the training portion of SuMe for 20 epochs. 微調整とトレーニングの詳細: すべてのモデルは、hughingfaceが発行したオリジナルベースモデルで、sumeのトレーニング部に20エポックにわたって微調整された。 0.63
For each model, we evaluate the average of BLEURT and Rouge-L score on the validation (Dev) set and the one with the highest average is chosen for prediction. 各モデルについて、検証(dev)セットにおけるbleurtおよびrouge-lスコアの平均を評価し、最も平均の高いスコアを予測のために選択する。 0.71
The learning rate is set to 6e-5, we use AdamW (Loshchilov and Hutter, 2017) optimizer with  = 1e − 8. 学習速度は 6e-5 に設定され、adamw (loshchilov and hutter, 2017)オプティマイザは 1e − 8 である。 0.74
The input token is limited to 512 tokens, and the generated token is maxed out at 128. 入力トークンは512トークンに制限され、生成されたトークンは128で最大化される。 0.77
We select batch size of 8 with gradient accumulation steps of two. 8のバッチサイズを2の勾配累積ステップで選択する。 0.61
5.2. Automatic Evaluation Results Table 3 compares the performance of the five language generation models on both the relation generation (RG) and mechanism generation tasks. 5.2. 自動評価結果表3は、関係生成(RG)とメカニズム生成タスクにおいて、5つの言語生成モデルの性能を比較する。 0.62
The domain-adapted models, GPT2-Pubmed and SciFive, fare better than fine-tuning the standard pre-trained models for both relation and mechanism generation tasks. ドメイン適応型モデルであるGPT2-PubmedとSciFiveは、関係生成タスクとメカニズム生成タスクの両方でトレーニング済みの標準モデルを微調整するよりも優れている。 0.59
SciFive achieves the best performance with more than a 7.5% increase in BLEURT score and more than 9.7% increase in RG F1 over the standard T5 model, highlighting the importance of domain adaptation for the SuMe tasks defined over scientific literature. SciFiveはBLEURTスコアが7.5%以上増加し、標準T5モデルよりもRG F1が9.7%以上増加し、科学文献上で定義されたSuMeタスクに対するドメイン適応の重要性を強調した。 0.79
The overall numbers (coupled with the human evaluation in Section 5.5) suggest that mechanism generation is a difficult and challenging task. 総合的な数値(第5.5節の人間評価と連動)は、メカニズム生成は困難かつ困難なタスクであることを示唆している。 0.60
The models achieve better performance on the relation generation task but there is still a substantial room for improvement here with the best model achieving an F1 of 79. モデルは、関係生成タスクでより良いパフォーマンスを達成するが、ここでは、最高のモデルが79のF1を達成するための実質的な改善の余地がある。 0.73
If the model is unable to generate the relation correctly, then the mechanism it generates is not useful. モデルが関係を正しく生成できない場合、それが生成するメカニズムは役に立たない。 0.72
Ideally we want models to correctly generate both the relation and the mechanism that underlies it. 理想的には、モデルが関係とそれを支えるメカニズムの両方を正しく生成することを望んでいます。 0.65
We also evaluated the correlation between BLEURT score and relation generation classification score. また,BLEURTスコアと関係生成分類スコアの相関について検討した。 0.71
Our analysis shows that when the model generates an accurate relation, it gets higher BLEURT score while when it generates an incorrect relation, its gets a 10% lower 我々の分析によると、モデルが正確な関係を生成すると、BLEURTスコアが高くなり、不正確な関係を生成すると10%低下する。 0.79
Figure 4: Comparison of relation generation (RG) F1 (left y-axis/blue bars) and the mechanism generation measures (right y-axis/teal+blue curves) against the amount of pretraining. 図4: 関係生成(rg)f1(左y軸/青棒)とメカニズム生成尺度(右y軸/teal+青曲線)と事前訓練量の比較。 0.79
As we increase the size of the pretraining data, the model performance improves. 事前トレーニングデータのサイズが大きくなると、モデルのパフォーマンスが向上します。 0.73
BLEURT score (50.02 vs 45.08) BLEURTスコア(50.02対45.08) 0.66
5.3. Pretraining with Conclusion Generation Next we analyze the impact of pre-training the models on the related task of generating conclusion (instead of mechanism) sentences, for which we can obtain data at scale without any manual labeling effort. 5.3. 結論生成による事前学習次回では,手作業によるラベル付けを行なわずに大規模にデータを得ることのできる,結論(メカニズムではなく)文を生成する関連するタスクに対するモデルの事前学習の影響を解析する。 0.52
We collected all abstracts from PubMed that ended with a conclusion sentence. 結論文で終わるPubMedからすべての要約を収集しました。 0.62
We can create training instances on these abstracts in the same format as we did for the mechanism generation instances. これらの抽象のトレーニングインスタンスは、メカニズム生成インスタンスで行ったのと同じフォーマットで作成できます。 0.75
The only difference here is the output sentences are conclusion sentences and not necessarily mechanisms. ここでの唯一の違いは、出力文は結論文であり、必ずしもメカニズムではないことである。
訳抜け防止モード: 唯一の違いは 出力文は結論文であり、必ずしもメカニズムではない。
0.70
We call this the conclusion generation task. これを結論生成タスクと呼びます。 0.54
SuMe includes 611K instances of this kind which is an order of magnitude larger than the mechanism summarization instances and can be seen as a form of data augmentation. SuMeには、このタイプの611Kインスタンスが含まれており、これはメカニズムの要約インスタンスよりも桁違いに大きく、データ拡張の一形態と見なすことができる。 0.59
We study the effect of this pretraining task by varying the amount of pretraining data. 本研究では,事前学習データ量を変化させることで,事前学習作業の効果について検討する。 0.51
We analyze the impact in terms of the overall effectiveness and the amount of fine-tuning (number of epochs) needed to converge when finetuning. 我々は,微調整時に収束するために必要な微調整(エポック数)の全体的効果と量の観点から,その影響を分析した。 0.65
Pretraining Data Size: We pretrain the SciFive model on the conclusion generation task with increasing amount of data (100K increments), and measure the performance of finetuning the pretrained models on the mechanism summarization task. データサイズを事前トレーニングする:データ量の増加(100kインクリメント)で結果生成タスクでscifiveモデルを事前トレーニングし、メカニズム要約タスクで事前トレーニングされたモデルを微調整するパフォーマンスを測定する。 0.82
Figure 4 shows that performance increases with more data available for pre- 図4は、事前のデータによってパフォーマンスが向上していることを示している。 0.51
Model Performance Vs Size of Pretraining DataBLEURT/ROUGE Score4043464952F1 Score7879808182Size of Pretraining Data0100k200k300k400 k500k600kRG (F1)BLEURT Rouge-L プレトレーニングDataBLEURT/ROUGE Score4043464952F1 Score7879808182Size of PretrainingData0100k 200k200k300k500k500k 600kRG (F1)BLEURT Rouge-L 0.49
英語(論文から抽出)日本語訳スコア
Supporting Set BLEURT Rouge-L サポートセット ブルールトルージュl 0.62
SciFive +Oracle SciFive + Oracle 0.42
+Pretraining +Pretraining+Oracle +予習 +プリトレーニング+oracle 0.33
47.81 49 49.05 49.64 47.81 49 49.05 49.64 0.32
43.31 43.07 43.72 43.81 43.31 43.07 43.72 43.81 0.23
Figure 5: Number of pretraining epochs vs. fine-tuning epochs for each pretrained model until convergence. 図5: 事前トレーニングエポック数 収束するまで各事前トレーニングモデル毎の微調整エポック数。 0.71
training, suggesting that pretraining is beneficial for learning to generate mechanisms. 事前訓練は、学習がメカニズムを生成するのに有益であることを示す訓練。 0.60
Number of Epochs: We also compare the impact of the amount of pretraining on the number of epochs needed for convergence in fine-tuning. Epochs の数: 微調整における収束に必要なエポックの数に対する事前学習の量の影響も比較する。 0.73
Figure 5 compares pretrained models with different number of pretraining epochs (x-axis) in terms of their overall effectiveness (BLEURT score bars) and the number of epochs to convergence (Finetuning epochs curve). 図5は、全体的な有効性(ブルートスコアバー)と収束するエポック数(微調整エポック曲線)の観点から、事前訓練されたモデルと異なる事前訓練されたエポック数(x軸)を比較します。 0.60
The figure shows that when we continue pretraining, not only does the resulting model performs better, but it also converges sooner taking fewer number of epochs to reach higher effectiveness. 図は、事前トレーニングを続けると、結果のモデルのパフォーマンスが向上するだけでなく、より高い有効性に達するためにより少ないエポック時間を取ることで収束することを示している。 0.64
Together these results suggest potential for the auxiliary data available in the SuMe dataset. これらの結果から,sumeデータセットで利用可能な補助データの可能性が示唆された。 0.59
5.4. Modeling Supporting Sentences 5.4. 支援文のモデル化 0.48
Will it help to model the subset of sentences within the inputs sentences that provide the best support for generating the mechanism sentence? 機構文を生成するのに最適なサポートを提供する入力文内の文のサブセットをモデル化するのに役立つだろうか? 0.75
This kind of an extractive step has been used previously in summarization tasks to reduce the amount of irrelevant information in the input (Narayan et al , 2018; Liu and Lapata, 2019). この種の抽出ステップは、これまで、入力における無関係な情報の量を減らすために、要約タスクで用いられてきた(Narayan et al , 2018; Liu and Lapata, 2019)。 0.77
To understand the utility of this, we built a pseudo-oracle that finds the sentences that have the best overlap (measured via BLEURT score (Sellam et al , 2020)) with the output mechanism sentence. 本手法の有用性を理解するために, BLEURTスコア(Sellam et al , 2020)と出力機構文とを最も重なり合う文(BLEURTスコア(Sellam et al , 2020)を抽出する擬似オークルを構築した。 0.63
Then, we trained the SciFive model and pretrained version to only use the top few sentences according to BLEURT score such that input size is now half of the original input size. そこで我々はSciFiveモデルと事前訓練したバージョンをBLEURTスコアに従って上位数文のみを使用するように訓練し、入力サイズが元の入力サイズの半分になった。 0.77
Using this subset instead of the entire subset provides BLEURT score improvements only for the basic SciFive model and the gains reduce when we use the pretrained model. サブセット全体の代わりにこのサブセットを使用することで、基本的なSciFiveモデルにのみBLEURTスコアが改善され、事前トレーニングされたモデルを使用するとゲインが減少する。 0.64
Unlike standard summarization tasks there are fewer completely unrelated sentences in the abstracts and generating the mechanism sentences remains challenging even when we are able to identify the most relevant sentences within this set. 標準的な要約タスクとは異なり、抽象文には完全に無関係な文は少なく、この集合の中で最も関連性の高い文を識別できる場合でも、メカニズム文の生成は難しいままである。 0.53
This suggests that the task remains hard even when the most important sentences are somehow known to the model. これは、最も重要な文が何らかの形でモデルに知られている場合でも、タスクは困難であることを示唆している。 0.48
Table 4: The effect of selecting supporting sentences with highest BLEURT score. 表4: BLEURTスコアの高いサポート文を選択する効果。 0.65
5.5. Manual Evaluation We also conduct a manual evaluation of the outputs from the best model — the SciFive model that was pretrained with the conclusion generation task. 5.5. 手動評価はまた、結論生成タスクで事前訓練された最高のモデル、SciFiveモデルからの出力を手動で評価する。 0.52
We asked three biomedical experts to evaluate output sentences for 100 instances and answer three questions (It took ∼ 5 minutes per expert per instance): 1. バイオメディカルの専門家3人に,100件のアウトプット文を評価し,3つの質問に回答するよう依頼した(1件あたり5分)。 0.71
Does the generated sentence contain a mechanism that explains the relation between the two main entities? 生成した文は、2つの主要なエンティティ間の関係を説明するメカニズムを含んでいるか? 0.70
2. Is the information in the generated mechanism supported by the information contained in the supporting set of sentences? 2. 文群に含まれる情報によって生成されたメカニズムの情報は支持されているか。 0.88
3. Is the generated mechanism factually correct? 3.生成されたメカニズムは実際正しいか? 0.81
The results show that the model learns to generate some mechanism sentence that connects the main entities for most of the instances (79%). 結果は、モデルがほとんどのインスタンスのメインエンティティを接続するメカニズム文(79%)を生成することを学習していることを示している。 0.73
It also produces output for which there is support in the input sentences in a majority of the cases (53%). また、ほとんどのケース(53%)で入力文がサポートされている出力を生成する。 0.64
Last, experts found that the output statements to be scientifically correct in many cases (58%). 最後に専門家は、多くのケースでアウトプットが科学的に正しいことを発見した(58%)。 0.69
In summary, however, only 32% of the outputs were acceptable for all questions, and were deemed to be good mechanism sentences. しかし、要約すると、全ての質問に対して、出力の32%しか受け入れられず、良いメカニズム文と見なされていた。 0.71
This again highlights the significant challenge posed by this task. これは、このタスクによってもたらされる重要な課題を再び強調する。 0.49
5.6. Error Analysis To understand the frequent failure modes of the model, we manually categorized the errors in 100 outputs that had the worst BLEURT scores with the reference mechanism sentences. 5.6. 誤り解析 モデルの頻繁な故障モードを理解するために、参照機構文で最悪のBLEURTスコアを持つ100のアウトプットでエラーを手作業で分類した。 0.59
1. Missing Entities (35%) – The most prevalent issue is the absence of one of the main entities in the generated sentence. 1. 欠落するエンティティ(35%) – 最も多い問題は、生成された文に主要なエンティティの1つが存在しないことである。 0.73
Despite this being a necessary feature in all of the mechanism sentences in the training data, the prevalence of this error shows that models find it difficult to track the main entities during generation. これは、トレーニングデータ内のすべてのメカニズム文に必須の機能であるにもかかわらず、このエラーの発生は、モデルが生成中に主エンティティを追跡することが難しいことを示している。 0.68
2. Incorrect Mechanism (24%) – The model is unable to generate the correct mechanism even though it is able to identify the correct relation and fills in some information that is either unrelated to or unsupported by the input sentences. 2 間違ったメカニズム(24%) – モデルが正しい関係を識別でき、入力文によって無関係またはサポートされていない情報を埋めているにもかかわらず、正しいメカニズムを生成できない。
訳抜け防止モード: 2. 誤ったメカニズム(24 %) – モデルが正しい関係を識別できたとしても、正しいメカニズムを生成できない いくつかの情報を記入し 入力文によってサポートされないか 関係ありません
0.83
3. Flipped Relation (19%) – The model predicts the incorrect relation and generates a mechanism that is faithful to this incorrect relation. 3. Flipped Relation (19%) – このモデルは誤った関係を予測し、この不正確な関係に忠実なメカニズムを生成する。 0.91
Improving relation generation is thus an important step for improving mechanism generation. したがって、関係生成を改善することはメカニズム生成を改善するための重要なステップである。 0.58
4. Non Mechanisms (11%) – While the model learns to generate mechanism like sentences for 4.非メカニズム(11%) - モデルが文のようなメカニズムを生成するのを学ぶ 0.91
Convergence vs # Pretraining EpochsBLEURT Score4747.648.248.84 9.450# Finetuning Epochs02468101214161 820# Pretraining Epochs0123456789Fine tuning epochsBLEURT score コンバージェンス vs # プリトレーニングepochsbleurt score4747.648.248.84 9.450# 微調整epochs02468101214161 820# プリトレーニングepochs0123456789 微調整epochsbleurtスコア 0.45
英語(論文から抽出)日本語訳スコア
Gold Mechanism On the basis of these observations, we conclude that IL18 induces MCP-1 production through the PI3K/Akt and MEK/ERK1/2 pathways in macrophages. 金のメカニズム IL18はマクロファージのPI3K/AktおよびMEK/ERK1/2経路を介してMPP-1産生を誘導する。 0.71
Taken together, we conclude that DeltaNp73 negatively regulates NGF-mediated neuronal differentiation by transrepressing TrkA. DeltaNp73はTrkAを転写することでNGFを介する神経分化を負に制御する。 0.59
In conclusion, the increase in SNGFR caused by ANF is associated with an increase in glomerular capillary hydraulic pressure and with a blunted maximal tubuloglomerular feedback response. 結論として、ANFによるSNGFRの増加は、糸球体毛細血管圧の上昇と、最大管球体フィードバック反応の鈍化と関連している。 0.69
We conclude that, without modulatory factors which play a role in vivo, NGF can enhance the synthesis of tyrosine hydroxylase n sympathetic ganglia in vitro, provided organ culture conditions which permit optimal survival of adrenergic neurons are selected. In vivoでの役割を担う調節因子がなければ、NGFはチロシン水酸化酵素n交感神経節の合成を促進することができ、アドレナリンニューロンの最適な生存を可能にする臓器培養条件が選択される。 0.76
We conclude that 20 mm alcohol/submaximal CCK as well supramaximal CCK stimulation can trigger pathologic basolateral exocytosis in pancreatic acinar cells via PKC alphamediated activation of Munc18c , which enables Syntaxin-4 to become receptive in forming a SNARE complex in the BPM. 以上の結果から,20mmのアルコール/過大なCCKおよび過大なCCK刺激は,膵腺房細胞におけるMnc18cのα活性化を介し,SNARE複合体を形成する際に,Syntaxin-4が受容される可能性が示唆された。 0.64
We conclude that in the presence of high doses of insulin, FSH decreases aromatase activity, and an uncoupling of P450 aromatase mRNA and aromatase activity occurs. 高用量インスリンの存在下では、FSHはアロマターゼ活性を低下させ、P450アロマターゼmRNAとアロマターゼ活性の解離が生じる。 0.65
Generated Mechanism In conclusion, IL-18 induces MCP-1 production in macrophages through the PI3K/Akt and MEK/ERK1/2 pathways. 生成機構 結論として、IL-18はPI3K/AktおよびMEK/ERK1/2経路を介してマクロファージのMCP-1産生を誘導する。 0.46
In conclusion, our results indicate that DeltaNp73 negatively regulates NGF-mediated neuronal differentiation by transcriptionally repressing the expression of TrkA. その結果,DeltaNp73はTrkAの発現を転写的に抑制することにより,NGFを介した神経分化を負に制御することが明らかとなった。 0.53
We conclude that ANF inhibits maximal tubuloglomerular feedback by increasing glomerular capillary hydraulic pressure and by decreasing SNGFR. 糸球体毛細血管水圧を上昇させ,SNGFRを低下させることにより,ANFは最大管球体フィードバックを抑制すると結論した。 0.53
This conclusion was further supported by pulselabeling of tyrosine hydroxylase with [3H]leucine, which showed that NGF increased synthesis of tyrosine in sympathetic ganglia by approximately 50%. この結論は, チロシン水酸化酵素と[3H]ロイシンのパルス標識によりさらに支持され, NGFは交感神経節のチロシン合成を約50%増加させた。 0.71
We conclude that alcohol can induce a clinically relevant form of pancreatitis by blocking apical exocytosis and redirecting exocytosis to less efficient BPM, mimicking supramaximal CCK stimulation. 以上の結果から, アルコールによる膵炎は, 根尖細胞外分泌を阻害し, エキソサイトーシスを低効率BPMにリダイレクトし, 上顎骨CCK刺激を模倣することにより, 臨床的に関連性のある膵炎を誘発できると考えられた。
訳抜け防止モード: 我々は,アルコールが膵炎の臨床的関連型を誘導できると結論づけた。 エキソサイトーシスをブロックし、エキソサイトーシスをより効率の悪いBPMにリダイレクトし、超極小CCK刺激を模倣する。
0.58
In conclusion, insulin stimulates aromatase activity in bovine granulosa cells at low doses but fails to stimulate activity at higher doses of insulin. 結論として、インスリンはウシ顆粒膜細胞のアロマターゼ活性を低用量で刺激するが、高用量インスリンでは活性化しない。
訳抜け防止モード: インシュリンはウシ顆粒膜細胞におけるアロマターゼ活性を低用量で刺激する インスリンの投与量の増加で 活性を刺激できないのです
0.76
Table 5: Examples of the generated outputs by the model. 表5: モデルによって生成された出力の例。 0.87
The first three are good outputs where the mechanism is a simple paraphrase of the expected gold mechanism, while the next three illustrate the types of semantic errors we observe. 最初の3つはよい出力で、メカニズムは期待された金のメカニズムの単純なパラフレーズであり、次の3つは私たちが観察する意味的エラーのタイプを示している。 0.71
The main entities are makred in Italics. 主な実体はイタリック体である。 0.49
The phrase explaining the mechanism in gold data is in blue, in good generation is in green, and in bad generation is in red. 金のデータのメカニズムを説明するフレーズは青で、良い世代は緑で、悪い世代では赤です。 0.61
the most part, it sometimes still fails to produce sentences that contain any mechanism at all. ほとんどの場合、メカニズムを一切含まない文を生成できない場合もあります。 0.62
5. Multiple pieces of information (11%) – Some complex mechanisms require combining bits of information from different input sentences. 5. 複数の情報片(11%) – 複雑なメカニズムによっては、異なる入力文からの情報を組み合わせる必要がある。 0.83
The model generates only a part of such mechanisms. モデルはそのようなメカニズムの一部だけを生成する。 0.81
5.7. Word Analysis We further analyzed the unigrams of the supporting sentences corresponding to the instances where the model was most confident in its generated mechanism and where it was least confident. 5.7. 単語分析 さらに, モデルが生成機構に最も自信を持ち, 信頼性が低い事例に対応して, 支援文のユニグラムを解析した。 0.55
The analysis shows that when the words ’binding’, ’caused’, ’demonstrated’, ’dose dependent’, ’investigated’, ’result’, and ’performed’ are available in the supporting sentences the model can generate explanation sentences with higher quality. 分析の結果、モデルがより高品質な説明文を生成することができるサポート文には、’binding’、’inducedd’、’demonstrated’、’dose dependent’、’investigated’、’result’、’performed’という単語が利用可能であることが判明した。 0.71
This shows that when the supporting sentences convey causal relation and reasoning the model is most confident about generating mechanisms. これは、支援文が因果関係を伝達し、モデルが生成メカニズムに最も自信を持っていることを示す。 0.63
Table 5 shows example generated mechanisms. 表5は、生成されたメカニズムの例を示す。 0.53
The first three showcase good outputs whereas the next three are examples of incorrect ones. 最初の3つは良いアウトプットを示し、次の3つは間違ったアウトプットの例である。 0.60
In the good ones, the first is a generated mechanism that is almost identical to the gold mechanism with only a slight syntactic change. よい例では、第一のメカニズムは金のメカニズムとほとんど同じで、わずかな構文変更しかありません。
訳抜け防止モード: 良いことには、最初のものは生成されたメカニズムです。 金の機構とほとんど同じで わずかな構文変化しかありません
0.74
The second is a generated mechanism which also conveys the gold mechanism accurately but with a paraphrasing that expands the technical term TRANS- 第二に、金のメカニズムを正確に伝達する生成機構であるが、技術的用語Transを拡大するパラフレーズを持つ。 0.75
PRESSING. In the last three examples with incorrect information, the first shows a bad output which contains a mechanism but not of the relation connecting the main entities. 押す。 不正な情報を含む最後の3つの例では、第一は主エンティティをつなぐ関係を含まないメカニズムを含む悪い出力を示す。 0.57
The next is a case where the information is correct but it does not even mention the main entities. 次のケースは、情報が正しいが、主エンティティさえ言及していないケースです。
訳抜け防止モード: 次に情報が正しい場合です しかし、主要なエンティティについても言及していない。
0.67
The last one is an example one of the entities are missing (FSH) and the generated text is about another relation. 最後のものはエンティティの欠落(FSH)の例であり、生成されたテキストは別の関係に関するものです。 0.76
6. Conclusions We introduced SuMe, a dataset for biomedical mechanism summarization. 6.結論 バイオメディカルメカニズム要約のためのデータセットSuMeを導入した。 0.69
This dataset is coupled with a challenging summarization task, which requires the generation of the relation between main entities as well as a textual summary of the mechanism which explains the reason behind the underlying relation. このデータセットには、主エンティティ間の関係の生成と、基礎となる関係の背後にある理由を説明するメカニズムのテキスト要約を必要とする、難しい要約タスクが組み合わされている。 0.74
This dataset is collected using the sentences from actual publication abstracts. このデータセットは実際の出版要約から文章を使って収集される。 0.63
We also introduce an easier and scalable pretraining task which improves the baselines by augmenting a larger set of sentences to the main dataset. また、より簡単でスケーラブルな事前学習タスクを導入し、メインデータセットにより大きな文群を追加することでベースラインを改善する。 0.72
We evaluated the complexity of the task using multiple state-of-the-art transformer based models. 複数の最先端変圧器モデルを用いてタスクの複雑さを評価した。 0.65
Our evaluation suggests that the proposed task is learnable, but we are far from solving it. 評価の結果,提案課題は学習可能であることが示唆されたが,解決には至っていない。
訳抜け防止モード: 我々の評価は,提案課題が学習可能であることを示唆している。 しかし解決には程遠い
0.69
The expert analysis also suggests the difficulty and importance of the task. 専門家分析は、タスクの難しさと重要性も示唆している。 0.65
All in all, we believe that SuMe dataset and associated task are a useful step towards building true informationaccess applications for the biomedical literature. 全体として、sumeデータセットと関連するタスクは、生物医学文献に真の情報アクセスアプリケーションを構築するための有用なステップであると考えています。
訳抜け防止モード: 全体として私たちは sumeデータセットと関連するタスクは、生物医学文献に真の情報アクセスアプリケーションを構築するための有用なステップである。
0.71
英語(論文から抽出)日本語訳スコア
Acknowledgments This work was supported in part by the National Science Foundation under grants IIS-1815358 and IIS-1815948. この研究は国立科学財団によってIIS-1815358とIIS-1815948の助成を受けた。 0.75
7. Bibliographical References Alam, F., Joty, S., and Imran, M. (2018). 書誌的参考文献 Alam, F., Joty, S. and Imran, M. (2018)。 0.45
Domain adaptation with adversarial training and graph embeddings. 敵のトレーニングとグラフ埋め込みによるドメイン適応。 0.74
arXiv preprint arXiv:1805.05151. arXiv preprint arXiv:1805.05151 0.36
Arighi, C. N., Lu, Z., Krallinger, M., Cohen, K. B., Wilbur, W. J., Valencia, A., Hirschman, L., and Wu, C. H. (2011). Arighi, C. N., Lu, Z., Krallinger, M., Cohen, K. B., Wilbur, W. J., Valencia, A., Hirschman, L., Wu, C. H. (2011)。 0.91
Overview of the biocreative iii workshop. バイオクリエーションiiiワークショップの概要 0.53
BMC bioinformatics, 12(8):1–9. BMCバイオインフォマティクス 12(8):1-9。 0.71
Azadani, M. N., Ghadiri, N., and Davoodijam, E. (2018). Azadani, M. N., Ghadiri, N., Davoodijam, E. (2018)。 0.41
Graph-based biomedical text summarization: An itemset mining and sentence clustering approach. グラフに基づく生物医学的テキスト要約:アイテムセットマイニングと文クラスタリングアプローチ 0.80
Journal of biomedical informatics, 84:42–58. journal of biomedical informatics, 84:42-58 を参照。 0.58
Bastan, M., Koupaee, M., Son, Y., Sicoli, R., and Balasubramanian, N. (2020). Bastan, M., Koupaee, M., Son, Y., Sicoli, R., Balasubramanian, N. (2020)。 0.79
Author’s sentiment prediction. In Proceedings of the 28th International Conference on Computational Linguistics, pages 604–615, Barcelona, Spain (Online), December. 著者の感情予測。 第28回計算言語学国際会議(英語版)の議事録604-615頁、スペイン・バルセロナ(12月)。 0.60
International Committee on Computational Linguistics. 計算言語学国際委員会委員。 0.69
Beltagy, I., Lo, K., and Cohan, A. (2019). Beltagy, I., Lo, K. and Cohan, A. (2019)。 0.82
Scibert: Pretrained language model for scientific text. Scibert: 科学テキストのための事前訓練された言語モデル。 0.67
In EMNLP. Cachola, I., Lo, K., Cohan, A., and Weld, D. S. (2020). 略称はemnlp。 Cachola, I., Lo, K., Cohan, A., and Weld, D. S. (2020)。 0.64
Tldr: Extreme summarization of scientific documents. Tldr: 科学的文書の極端な要約。 0.78
arXiv preprint arXiv:2004.15011. arXiv preprint arXiv:2004.15011 0.36
C¸ ano, E. and Bojar, O. (2020). ano, E. and Bojar, O. (2020)。 0.78
Two huge title and keyword generation corpora of research articles. 2つの巨大なタイトルとキーワード生成コーパスの研究記事。 0.72
arXiv preprint arXiv:2002.04689. arXiv preprint arXiv:2002.04689 0.36
Cohan, A., Dernoncourt, F., Kim, D. S., Bui, T., Kim, S., Chang, W., and Goharian, N. (2018). Cohan, A., Dernoncourt, F., Kim, D. S., Bui, T., Kim, S., Chang, W., and Goharian, N. (2018)。
訳抜け防止モード: Cohan, A., Dernoncourt, F., Kim, D. S. Bui, T., Kim, S., Chang, W. とGoharian氏(2018年)。
0.80
A discourseaware attention model for abstractive summarization of long documents. 長文の抽象的要約のための難聴注意モデル 0.52
CoRR, abs/1804.05685. CoRR, abs/1804.05685。 0.30
Collins, E., Augenstein, I., and Riedel, S. (2017). Collins, E., Augenstein, I. and Riedel, S. (2017)。 0.44
A supervised approach to extractive summarisation of scientific papers. 科学的論文の抽出要約のための教師付きアプローチ 0.66
arXiv preprint arXiv:1706.03946. arXiv preprint arXiv:1706.03946 0.36
Czarnecki, J., Nobeli, I., Smith, A. M., and Shepherd, A. J. (2012). Czarnecki, J., Nobeli, I., Smith, A. M., and Shepherd, A. J. (2012)。 0.91
A text-mining system for extracting metabolic reactions from full-text articles. 全文記事から代謝反応を抽出するテキストマイニングシステム 0.65
BMC bioinformatics, 13(1):1–14. BMCバイオインフォマティクス 13(1):1-14。 0.71
Dina Demner-Fushman, et al , editors. Dina Demner-Fushman, et al , editors. 0.48
(2020). Proceedings of the 19th SIGBioMed Workshop on Biomedical Language Processing, Online, July. (2020). 第19回SIGBioMed Workshop on Biomedical Language Processing, July に参加して 0.59
Association for Computational Linguistics. DeYoung, J., Lehman, E., Nye, B., Marshall, I. J., (2020). 計算言語学会会員。 DeYoung, J., Lehman, E., Nye, B., Marshall, I. J., (2020)。 0.70
Evidence inference and Wallace, B. C. 2.0: More data, better models. Evidence Inference and Wallace, B. C. 2.0: より多くのデータ、より良いモデル。 0.78
arXiv preprint arXiv:2005.04177. arXiv preprint arXiv:2005.04177。 0.63
Gaonkar, R., Kwon, H., Bastan, M., Balasubramanian, N., and Chambers, N. (2020). Gaonkar, R., Kwon, H., Bastan, M., Balasubramanian, N., and Chambers, N. (2020)。 0.85
Modeling label semantics for predicting emotional reactions. 感情反応予測のためのラベルセマンティクスのモデル化 0.71
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 4687–4692, Online, July. 第58回計算言語学会年次大会紀要4687-4692頁、オンライン, 7月。 0.50
Association for Computational Linguistics. Giorgi, J. M. and Bader, G. D. (2020). 計算言語学会会員。 Giorgi, J. M. and Bader, G. D. (2020)。 0.48
Towards reliable named entity recognition in the biomedical domain. 生物医学領域における信頼性の高い実体認識を目指して 0.58
Bioinformatics, 36(1):280–286. バイオインフォマティクス 36(1):280-286。 0.66
Gu, Y., Tinn, R., Cheng, H., Lucas, M., Usuyama, N., Liu, X., Naumann, T., Gao, J., and Poon, H. (2020). Gu, Y., Tinn, R., Cheng, H., Lucas, M., Usuyama, N., Liu, X., Naumann, T., Gao, J., Poon, H. (2020)。 0.42
Domain-specific language model pretraining for biomedical natural language processing. バイオメディカル自然言語処理のためのドメイン固有言語モデル 0.83
Heidari, M., Zad, S., Hajibabaee, P., Malekzadeh, M., HekmatiAthar, S., Uzuner, O., and Jones, J. H. (2021). Heidari, M., Zad, S., Hajibabaee, P., Malekzadeh, M., HekmatiAthar, S., Uzuner, O., Jones, J. H. (2021)。 0.84
Bert model for fake news detection based on social bot activities in the covid-19 pandemic. 新型コロナウイルスのパンデミックにおけるソーシャルボット活動に基づく偽ニュース検出のためのベルトモデル 0.54
In 2021 IEEE 12th Annual Ubiquitous Computing, Electronics Mobile Communication Conference (UEMCON), pages 0103–0109. 2021年、IEEE 12th Annual Ubiquitous Computing, Electronics Mobile Communication Conference (UEMCON)、ページ0103-0109。 0.86
Kanakarajan, K. r. カナカラジャン k. r. 0.58
, Kundumani, B., and Sankarasubbu, M. (2021). 出典: kundumani, b., sankarasubbu, m. (2021)。 0.74
BioELECTRA:pretraine d biomedical text encoder using discriminators. BioELECTRA:識別器を用いたバイオメディカルテキストエンコーダ 0.59
In Proceedings of the 20th Workshop on Biomedical Language Processing, pages 143–154, Online, June. 第20回バイオメディカル言語処理ワークショップ"Proceedings of the 20th Workshop on Biomedical Language Processing, page 143-154, June 0.66
Association for Computational Linguistics. Kemper, B., Matsuzaki, T., Matsuoka, Y., Tsuruoka, Y., Kitano, H., Ananiadou, S., and Tsujii, J. (2010). 計算言語学会会員。 Kemper, B., Matsuzaki, T., Matsuoka, Y., Tsuruoka, Y., Kitano, H., Ananiadou, S., and Tsujii, J. (2010)。
訳抜け防止モード: 計算言語学会会員。 Kemper, B., Matsuzaki, T., Matsuoka, Y. 鶴岡, Y., 北野, H., Ananiadou, S. そして、辻井(2010年)。
0.62
Pathtext: a text mining integrator for biological pathway visualizations. Pathtext: 生物学的経路可視化のためのテキストマイニングインテグレータ。 0.71
Bioinformatics, 26(12):i374– i381. バイオインフォマティクス26(12):i374-i381。 0.68
Keymanesh, M., Elsner, M., and Parthasarathy, S. (2021). Keymanesh, M., Elsner, M., Parthasarathy, S. (2021)。 0.80
Privacy policy question answering assistant: A query-guided extractive summarization approach. プライバシポリシ質問応答アシスタント:クエリ誘導抽出要約アプローチ 0.55
CoRR, abs/2109.14638. corr, abs/2109.14638。 0.49
Krallinger, M., P´erez-P´erez, M., P´erez-Rodr´ıguez, G., Blanco-M´ıguez, A., Fdez-Riverola, F., CapellaGutierrez, S., Lourenc¸o, A., and Valencia, A. (2017). Krallinger, M., P ́erez-P ́erez, M., P ́erez-Rodr ́ıguez, G., Blanco-M ́ıguez, A., Fdez-Riverola, F., CapellaGutierrez, S., Lourenc 'o, A., Valencia, A. (2017)。 0.76
The biocreative v. 5 evaluation workshop: tasks, organization, sessions and topics. バイオ創造性v.5評価ワークショップ:タスク、組織、セッション、トピック。 0.67
Landis, J. R. and Koch, G. G. (1977). Landis, J. R. and Koch, G. G. (1977)。 0.89
The measurement of observer agreement for categorical data. 分類データのオブザーバ合意度の測定 0.60
biometrics, pages 159–174. バイオメトリックス、159-174頁。 0.53
Lauriola, I., Aiolli, F., Lavelli, A., and Rinaldi, F. (2021). Lauriola, I., Aiolli, F., Lavelli, A., Rinaldi, F. (2021)。 0.80
Learning adaptive representations for entity recognition in the biomedical domain. 生物医学領域におけるエンティティ認識のための適応表現の学習 0.72
Journal of biomedical semantics, 12(1):1–13. journal of biomedical semantics, 12(1):1–13を参照。 0.76
Lee, J., Yoon, W., Kim, S., Kim, D., Kim, S., So, C. H., and Kang, J. (2020). Lee, J., Yoon, W., Kim, S., Kim, D., Kim, S., So, C. H., Kang, J. (2020)。 0.83
Biobert: a pre-trained biomedical language representation model for biomedical text mining. Biobert: バイオメディカルテキストマイニングのための事前訓練されたバイオメディカル言語表現モデル。 0.76
Bioinformatics, 36(4):1234–1240. バイオインフォマティクス 36(4):1234-1240。 0.71
Lev, G., Shmueli-Scheuer, M., Herzig, J., Jerbi, A., and Konopnicki, D. (2019). Lev, G., Shmueli-Scheuer, M., Herzig, J., Jerbi, A., and Konopnicki, D. (2019)。 0.93
Talksumm: A dataset and scalable annotation method for scientific paper summarization based on conference talks. talksumm: カンファレンス講演に基づいた科学論文要約のためのデータセットとスケーラブルなアノテーション手法。 0.73
arXiv preprint arXiv:1906.01351. arXiv preprint arXiv:1906.01351 0.36
Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., Stoyanov, V., and Zettlemoyer, L. (2019). Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., Stoyanov, V., Zettlemoyer, L. (2019)。 0.41
Bart: Denoising sequence-tosequence pre-training for natural language generation, translation, and comprehension. bart: 自然言語の生成、翻訳、理解のためのシーケンス列の事前学習。 0.70
arXiv preprint arXiv:1910.13461. arXiv preprint arXiv:1910.13461 0.36
Lin, C. -Y. (2004). リン、C。 -y。 (2004). 0.48
Rouge: A package for automatic In Text summarization Rouge: 自動インテキスト要約のためのパッケージ 0.86
evaluation of summaries. branches out, pages 74–81. 要約の評価。 74-81頁。 0.49
Liu, Y. and Lapata, M. Liu, Y. and Lapata, M。 0.46
(2019). Text summa- (2019). テキスト要約 0.54
英語(論文から抽出)日本語訳スコア
standards. In Nicoletta Calzolari (Conference Chair), et al , editors, Proceedings of the Eight International Conference on Language Resources and Evaluation (LREC’12), pages 3746–3753, Istanbul, Turkey, may. 基準だ Nicoletta Calzolari (Conference Chair), et al , editors, Proceedings of the Eight International Conference on Language Resources and Evaluation (LREC’12), page 3746–3753, Istanbul, Turkey, may。
訳抜け防止モード: 基準だ nicoletta calzolari (カンファレンスチェア) など、編集者。 第8回言語資源評価国際会議(lrec'12)参加報告 3746-3753頁、イスタンブール、トルコ、5月。
0.59
European Language Resource Association (ELRA). 欧州言語資源協会 (ELRA) の略。 0.79
Subramani, S., Kalpana, R., Monickaraj, P. M., and Natarajan, J. (2015). Subramani, S., Kalpana, R., Monickaraj, P. M., Natarajan, J. (2015)。 0.80
Hpiminer: A text mining system for building and visualizing human protein interaction networks and pathways. Hpiminer: 人間のタンパク質相互作用ネットワークと経路を構築し視覚化するためのテキストマイニングシステム。 0.75
Journal of Biomedical Informatics, 54:121–131. journal of biomedical informatics, 54:121–131を参照。 0.59
Thayaparan, M., Valentino, M., and Freitas, A. (2020). Tayaparan, M., Valentino, M. and Freitas, A. (2020)。 0.76
A survey on explainability in machine reading comprehension. 機械読解における説明可能性に関する調査 0.72
arXiv preprint arXiv:2010.00389. arXiv preprint arXiv:2010.00389 0.36
Valenzuela-Esc´arcega, M. A., Babur, ¨O. Valenzuela-Esc ́arcega, M. A。 0.78
, Hahn-Powell, G., Bell, D., Hicks, T., Noriega-Atala, E., Wang, X., Surdeanu, M., Demir, E., and Morrison, C. T. (2018). Hahn-Powell, G., Bell, D., Hicks, T., Noriega-Atala, E., Wang, X., Surdeanu, M., Demir, E., Morrison, C. T. (2018)。
訳抜け防止モード: 、Hahn - Powell, G., Bell, D., Hicks, T,ノリエガ-アタラ、E、王、X Surdeanu, M., Demir, E. and Morrison, C. T. (2018)。
0.84
Large-scale automated machine reading discovers new cancer driving mechanisms. 大規模自動機械読み取りは、新しいがん駆動機構を発見する。 0.63
Database: The Journal of Biological Databases and Curation. データベース:journal of biological database and curation。 0.68
Wang, Q., Huang, L., Jiang, Z., Knight, K., Ji, H., Bansal, M., and Luan, Y. (2019). Wang, Q., Huang, L., Jiang, Z., Knight, K., Ji, H., Bansal, M., and Luan, Y. (2019)
訳抜け防止モード: Wang, Q., Huang, L., Jiang, Z. Knight, K., Ji, H., Bansal, M. とLuan氏(2019年)。
0.76
Paperrobot: Incremental draft generation of scientific ideas. Paperrobot: 科学的アイデアのインクリメンタルドラフト生成。 0.71
arXiv preprint arXiv:1905.07870. arXiv preprint arXiv:1905.07870。 0.32
Yao, L., Riedel, S., and McCallum, A. (2010). Yao, L., Riedel, S. and McCallum, A. (2010)。 0.41
Collective cross-document relation extraction without labelled data. ラベル付きデータのない集合文書間関係抽出 0.74
In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pages 1013–1023. 2010年自然言語処理における経験的手法に関する会議の議題1013-1023頁。 0.74
Yasunaga, M., Kasai, J., Zhang, R., Fabbri, A. R., Li, I., Friedman, D., and Radev, D. R. (2019). Yasunaga, M., Kasai, J., Zhang, R., Fabbri, A. R., Li, I., Friedman, D., Radev, D. R. (2019)。 0.88
Scisummnet: A large annotated corpus and content-impact models for scientific paper summarization with citation networks. Scisummnet: 科学論文要約のための大規模な注釈付きコーパスとコンテンツインパクトモデル。 0.75
In Proceedings of the AAAI Conference on Artificial Intelligence, volume 33, pages 7386–7393. The Proceedings of the AAAI Conference on Artificial Intelligence, Volume 33, page 7386–7393。 0.43
Yuan, J., Jin, Z., Guo, H., Jin, H., Zhang, X., Smith, T., and Luo, J. (2020). Yuan, J., Jin, Z., Guo, H., Jin, H., Zhang, X., Smith, T., and Luo, J. (2020)。 0.83
Constructing biomedical domainspecific knowledge graph with minimum supervision. 最小限の監督によるバイオメディカルドメイン固有知識グラフの構築 0.60
Knowledge and Information Systems, 62(1):317–336. 知識・情報システム 62(1):317-336。 0.76
Zhao, L., Wang, J., Cheng, L., and Wang, C. (2020). Zhao, L., Wang, J., Cheng, L., Wang, C. (2020)。 0.81
Ontosem: an ontology semantic representation methodology for biomedical domain. ontosem: 生物医学領域のためのオントロジー意味表現方法論。 0.68
In 2020 IEEE International Conference on Bioinformatics and Biomedicine (BIBM), pages 523–527. 2020年、IEEE International Conference on Bioinformatics and Biomedicine (BIBM) 523-527頁。 0.81
IEEE. rization with pretrained encoders. IEEE。 プリトレーニングエンコーダによるrization。 0.52
arXiv preprint arXiv:1908.08345. arXiv preprint arXiv:1908.08345 0.36
Loshchilov, I. and Hutter, F. (2017). loshchilov, i. and hutter, f. (2017)。 0.89
Fixing weight decay regularization in adam. adam における重み減衰正規化の固定 0.65
CoRR, abs/1711.05101. corr、abs/1711.05101。 0.38
Miwa, M., Ohta, T., Rak, R., Rowley, A., Kell, D. B., Pyysalo, S., and Ananiadou, S. (2013). Miwa, M., Ohta, T., Rak, R., Rowley, A., Kell, D. B., Pysalo, S., and Ananiadou, S. (2013)。 0.85
A method for integrating and ranking the evidence for biochemical pathways by mining reactions from text. テキストからの鉱毒反応による生化学的経路の証拠の統合とランキングの方法。 0.69
Bioinformatics, 29(13):i44–i52. バイオインフォマティクス29(13):i44-i52。 0.64
Mulyar, A., Uzuner, O., and McInnes, B. (2021). Mulyar, A., Uzuner, O. and McInnes, B. (2021)。 0.82
Mtclinical bert: scaling clinical information extraction with multitask learning. Mtclinical bert: マルチタスク学習による臨床情報抽出のスケーリング。 0.88
Journal of the American Medical Informatics Association, 28(10):2108–2115. Journal of the American Medical Informatics Association, 28(10):2108–2115 0.45
Narayan, S., Cohen, S. B., and Lapata, M. (2018). Narayan, S., Cohen, S. B. and Lapata, M. (2018)。 0.47
Don’t give me the details, just the summary! topicaware convolutional neural networks for extreme summarization. 極端に要約するためのトピックを意識した畳み込みニューラルネットワーク。 0.39
arXiv preprint arXiv:1808.08745. arXiv preprint arXiv:1808.08745 0.36
Papanikolaou, Y. and Pierleoni, A. (2020). Papanikolaou, Y. and Pierleoni, A. (2020)。 0.43
Dare: Data augmented relation extraction with gpt-2. Dare: gpt-2によるデータ拡張関係抽出。 0.73
arXiv preprint arXiv:2004.13845. arXiv preprint arXiv:2004.13845 0.36
Peng, Y., Yan, S., and Lu, Z. (2019). Peng, Y., Yan, S. and Lu, Z. (2019)。 0.82
Transfer learning in biomedical natural language processing: an evaluation of bert and elmo on ten benchmarking datasets. バイオメディカル自然言語処理における伝達学習:10のベンチマークデータセット上でのbertとelmoの評価。 0.72
arXiv preprint arXiv:1906.05474. arXiv preprint arXiv:1906.05474 0.36
Phan, L. N., Anibal, J. T., Tran, H., Chanana, S., Bahadroglu, E., Peltekian, A., and Altan-Bonnet, G. transformer model for biomedical literature. Phan, L. N., Anibal, J. T., Tran, H., Chanana, S., Bahadroglu, E., Peltekian, A., and Altan-Bonnet, G. transformer model for biomedical literature。 0.47
arXiv preprint arXiv:2106.03598. arXiv preprint arXiv:2106.03598 0.36
(2021). Scifive: (2021). scifive (複数形 scifives) 0.35
a text-to-text text‐to-text 0.28
Poon, H., Quirk, C., DeZiel, C., and Heckerman, D. (2014). Poon, H., Quirk, C., DeZiel, C., and Heckerman, D. (2014)。 0.88
Literome: Pubmed-scale genomic knowledge base in the cloud. literome: クラウド上のpubmedスケールのゲノム知識ベース。 0.78
Bioinformatics, 30(19):2840–2842. バイオインフォマティクス 30(19):2840–2842。 0.66
Pu, A., Chung, H. W., Parikh, A. P., Gehrmann, S., and Sellam, T. (2021). Pu, A., Chung, H. W., Parikh, A. P., Gehrmann, S., and Sellam, T. (2021)。 0.91
Learning compact metrics for mt. In EMNLP. EMNLPにおける mt. のコンパクトなメトリクスの学習 0.73
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., and Sutskever, I. (2019). Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., Sutskever, I. (2019)。 0.81
Language models are unsupervised multitask learners. 言語モデルは教師なしマルチタスク学習者である。 0.60
Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020a). Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., Liu, P. J. (2020a)。 0.85
Exploring the limits of transfer learning with a unified text-to-text transformer. 統一テキスト-テキストトランスフォーマによるトランスファー学習の限界の検討 0.82
Journal of Machine Learning Research, 21(140):1–67. journal of machine learning research、21(140):1-67。 0.74
Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., and Liu, P. J. (2020b). Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W., Liu, P. J. (2020b)。 0.85
Exploring the limits of transfer learning with a unified text-to-text transformer. 統一テキスト-テキストトランスフォーマによるトランスファー学習の限界の検討 0.82
Journal of Machine Learning Research, 21:1–67. Journal of Machine Learning Research, 21:1–67。 0.38
Sellam, T., Das, D., and Parikh, A. P. (2020). sellam, t., das, d., parikh, a. p. (2020)。 0.62
Bleurt: Learning robust metrics for text generation. bleurt: テキスト生成のための堅牢なメトリクスの学習。 0.69
arXiv preprint arXiv:2004.04696. arXiv preprint arXiv:2004.04696 0.36
Shahbazi, H., Fern, X., Ghaeini, R., and Tadepalli, P. (2020). Shahbazi, H., Fern, X., Ghaeini, R., and Tadepalli, P. (2020)。 0.85
Relation extraction with explanation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 6488– 6494. 説明と関係抽出 第58回計算言語学会年次大会紀要6488-6494頁。
訳抜け防止モード: 説明と関係抽出 第58回計算言語学会年次大会を終えて 6488年 - 6494年。
0.51
Str¨otgen, J. and Gertz, M. (2012). スト・ショトゲン、j. and gertz、m. (2012)。 0.74
Temporal tagging on different domains: Challenges, strategies, and gold 異なるドメインの時間的タグ付け:挑戦、戦略、金 0.74
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。