論文の概要、ライセンス

# (参考訳) Trans4E: 学習知識グラフのリンク予測 [全文訳有]

Trans4E: Link Prediction on Scholarly Knowledge Graphs ( http://arxiv.org/abs/2107.03297v1 )

ライセンス: CC BY 4.0
Mojtaba Nayyeri, Gokce Muge Cil, Sahar Vahdati, Francesco Osborne, Mahfuzur Rahman, Simone Angioni, Angelo Salatino, Diego Reforgiato Recupero, Nadezhda Vassilyeva, Enrico Motta, Jens Lehmann(参考訳) 知識グラフの不完全性(KGs)は、AIベースのサービスの品質に影響を与える重要な問題である。 学術領域では、研究出版物を記述するKGは一般的に重要な情報を欠き、研究のダイナミクスを分析し予測する能力を妨げる。 近年,知識グラフ埋め込みモデルに基づくリンク予測アプローチがこの問題の最初の支援となった。 そこで本研究では,N to M と N$\gg$M の関係を含む KG に特に適合する新しい埋め込みモデル Trans4E を提案する。 これは、比較的小さな分類群に従って多数の実体(研究記事、特許、人物など)を分類するkgに対して典型的である。 Trans4Eは、Academia/Industry DynAmics (AIDA) とMicrosoft Academic Graph (MAG) の2つの大規模知識グラフに適用され、学習分野に関する情報(例えば「神経ネットワーク」、「機械学習」、「芸術知能」)とアフィリエレーションタイプ(例えば「教育」、「企業」、そして「政府」)を補完し、結果データのスコープと精度を向上させる。 我々は,AIDA,MAG,および他の4つのベンチマーク(FB15k,FB15k-237,WN1 8RR,WN18RR)に対する代替ソリューションに対するアプローチを評価した。 Trans4Eは低埋め込み次元を使用する場合、他のモデルよりも優れ、高次元での競争結果が得られる。

The incompleteness of Knowledge Graphs (KGs) is a crucial issue affecting the quality of AI-based services. In the scholarly domain, KGs describing research publications typically lack important information, hindering our ability to analyse and predict research dynamics. In recent years, link prediction approaches based on Knowledge Graph Embedding models became the first aid for this issue. In this work, we present Trans4E, a novel embedding model that is particularly fit for KGs which include N to M relations with N$\gg$M. This is typical for KGs that categorize a large number of entities (e.g., research articles, patents, persons) according to a relatively small set of categories. Trans4E was applied on two large-scale knowledge graphs, the Academia/Industry DynAmics (AIDA) and Microsoft Academic Graph (MAG), for completing the information about Fields of Study (e.g., 'neural networks', 'machine learning', 'artificial intelligence'), and affiliation types (e.g., 'education', 'company', 'government'), improving the scope and accuracy of the resulting data. We evaluated our approach against alternative solutions on AIDA, MAG, and four other benchmarks (FB15k, FB15k-237, WN18, and WN18RR). Trans4E outperforms the other models when using low embedding dimensions and obtains competitive results in high dimensions.
公開日: Sat, 3 Jul 2021 09:34:44 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 l u J 1 2 0 2 l u J 0.85
3 ] I A . s c [ 3 【私】 A! sc [ 0.65
1 v 7 9 2 3 0 1 v 7 9 2 3 0 0.85
. 7 0 1 2 : v i X r a . 7 0 1 2 : v i X r a 0.85
Trans4E: Link Prediction on Scholarly Knowledge Graphs Mojtaba Nayyeria, Gokce Muge Cila, Sahar Vahdatib, Francesco Osborned, Mahfuzur Rahmana, Simone Angionie, Angelo Salatinod,ࢩ, Diego Reforgiato Recuperoe, Nadezhda Vassilyevaa, Enrico Mottad and Jens Lehmanna,c Trans4E: Link Prediction on Scholarly Knowledge Graphs Mojtaba Nayyeria, Gokce Muge Cila, Sahar Vahdatib, Francesco Osborned, Mahfuzur Rahmana, Simone Angionie, Angelo Salatinod,》, Diego Reforgiato Recuperoe, Nadezhda Vassilyevaa, Enrico Mottad, Jens Lehmanna,c 0.84
aSDA Research Group, University of Bonn (Germany) bInstitute for Applied Informatics (InfAI) cFraunhofer IAIS, Dresden (Germany) dKnowledge Media Institute, The Open University, Milton Keynes (UK) eDepartment of Mathematics and Computer Science, University of Cagliari (Italy) ARTICLE INFO Keywords: Scholarly Knowledge Graph Knowledge Graph Embedding Scholarly Communication Science Graph Metaresearch Queries Link Prediction Research of Research aSDA Research Group, University of Bonn (ドイツ) b Institute for Applied Informatics (InfAI) cFraunhofer IAIS, Dresden (ドイツ) dKnowledge Media Institute, The Open University, Milton Keynes (イギリス) eDepartment of Mathematics and Computer Science, Cagliari (イタリア) ARTICLE INFO Keywords: Scholarly Knowledge Graph Knowledge Graph Embedding Scholarly Communication Science Graph Metaresearch Queries Link Prediction Research of Research 0.82
ABSTRACT The incompleteness of Knowledge Graphs (KGs) is a crucial issue affecting the quality of AI-based services. ABSTRACT 知識グラフの不完全性(KGs)は、AIベースのサービスの品質に影響を与える重要な問題である。 0.72
Inthescholarlydomain ,KGsdescribingresear chpublicationstypica llylackimportantinfo rmation, hinderingourabilityt oanalyseandpredictre searchdynamics. inthescholarlydomain ,kgsdescribingresear chpublicationstypica llylack importantinformation , hinderingourability toanalyseandpredictr esearchdynamics 0.19
Inrecentyears, linkprediction approaches based on Knowledge Graph Embedding models became the first aid for this issue. 近年、知識グラフ埋め込みモデルに基づくリンク予測アプローチがこの問題の最初の支援となった。 0.80
In this work, we present Trans4E, a novel embedding model that is particularly fit for KGs which include N to M relations with NâM. 本研究では,N to M と NâM の関係を含む KG に特に適合する新しい埋め込みモデル Trans4E を提案する。 0.76
This is typical for KGs that categorize a large number of entities (e g , researcharticles, patents, persons)accordingtoa relativelysmallsetof categories. これは、多数の実体(例えば、研究成果物、特許、人)を分類するKGに典型的である。 0.63
Trans4Ewasapplied on two large-scale knowledge graphs, the Academia/Industry DynAmics (AIDA) and Microsoft Academic Graph (MAG), for completing the information about Fields of Study (e g , ’neural networks’, ’machine learning’, ’artificial intelligence’), and affiliation types (e g , ’education’, ’company’, ’government’), improving the scope and accuracy of the resulting data. Trans4Ewasappliは、Academia/Industry DynAmics (AIDA)とMicrosoft Academic Graph (MAG)という2つの大規模知識グラフに基づいており、学習分野(例えば、神経ネットワーク’、‘機械学習’、‘芸術知性’)とアフィリエレーションタイプ(例、‘教育’、‘企業’、‘政府’)に関する情報を補完し、結果データのスコープと精度を向上させる。 0.73
We evaluated our approach against alternative solutions on AIDA, MAG, and four other benchmarks (FB15k, FB15k-237, WN18, and WN18RR). 我々は,AIDA,MAG,および他の4つのベンチマーク(FB15k,FB15k-237,WN1 8RR,WN18RR)に対する代替ソリューションに対するアプローチを評価した。 0.62
Trans4E outperforms the other models when using low embedding dimensions and obtains competitive results in high dimensions. Trans4Eは低埋め込み次元を使用する場合、他のモデルよりも優れ、高次元での競争結果が得られる。 0.49
1. Introduction The technology of Knowledge Graphs (KGs) empowered by graph-based knowledge representation brought an evolutionary change in a range of AI tasks. 1. 序文 グラフに基づく知識表現によって強化された知識グラフ技術(KG)は、AIタスクの範囲に進化的な変化をもたらした。 0.78
As a consequence, many application domains in science, industry, and different enterprises use KGs for data management. その結果、科学、産業、異なる企業の多くのアプリケーションドメインが、データ管理にKGを使っている。 0.79
However, a challenge with KGs is that, despite the presence of millions of triples, capturing complete knowledge from the real world is almost impossible, even for specific application domains. しかし、KGsの課題は、数百万のトリプルが存在するにもかかわらず、特定のアプリケーションドメインであっても、現実世界から完全な知識を捉えることはほとんど不可能であることだ。 0.64
Therefore, KGs usually remain incomplete. したがって、KGsは通常不完全である。 0.57
Scientific research is one of the major domains for the application of KGs. 科学研究はKGの応用における主要な領域の1つである。 0.71
In the last years, we saw the emergence of several KGs describing research outputs, such as MicrosoftAcademicGra ph1 [51], Scopus2, SemanticScholar3, Aminer [62], Core [21], OpenCitations [37], Dimensions4, ここ数年、Microsoft AcademicGraph1 [51], Scopus2, SemanticScholar3, Aminer [62], Core [21], OpenCitations [37], Dimensions4, など、研究成果を説明するいくつかのKGが出現した。 0.78
ࢩCorresponding author nayyeri@cs.uni-bonn. de (M. Nayyeri); s6gocill@uni-bonn.de ※対応作家 nayyeri@cs.uni-bonn. de (M. Nayyeri); s6gocill@uni-bonn.de 0.53
(G.M. Cil); vahdati@infai.org (S. Vahdati); francesco.osborne@op en.ac.uk (F. Osborne); s6mrrahm@uni-bonn.de (M. Rahman); simone.angioni@unica .it (S. Angioni); angelo.salatino@open .ac.uk (A. Salatino); diego.reforgiato@uni ca.it (D.R. (G.M.) Cil); vahdati@infai.org (S. Vahdati), Franceesco.osborne@o pen.ac.uk (F. Osborne), s6mrrahm@uni-bonn.de (M. Rahman), simone.angioni@unica .it (S. Angioni), Angelo.salatino@open .ac.uk (A. Salatino), diego.reforgiato@uni ca.it (D.R.) ^ 0.64
Recupero); vassilyeva@cs.uni-bo nn.de (N. Vassilyeva); enrico.motta@open.ac .uk (E. Motta); jens.lehmann@cs.uni- bonn.de (J. Lehmann) ORCID(s): 0000-0002-9177-0312 (M. Nayyeri); 0000-0002-4645-0088 (G.M. vassilyeva@cs.uni-bo nn.de (N. Vassilyeva) enrico.motta@open.ac .uk (E. Motta) jens.lehmann@cs.uni- bonn.de (J. Lehmann) ORCID(s): 0000-0002-9177-0312 (M. Nayyeri) 0000-0002-4645-0088 (G.M)。 0.58
Cil); 0000-0002-7171-169X (S. Vahdati); 0000-0001-6557-3131 (F. Osborne); 0000-0003-0273-3112 (M. Rahman); 0000-0002-6682-3419 (S. Angioni); 0000-0002-4763-3943 (A. Salatino); 0000-0001-8646-6183 (D.R. 0000-0002-7171-169X (S. Vahdati), 0000-0001-6557-3131 (F. Osborne), 0000-0003-0273-3112 (M. Rahman), 0000-0002-6682-3419 (S. Angioni), 0000-0002-4763-3943 (A. Salatino), 0000-0001-8646-6183 (D.R.)。 0.49
Recupero); 0000-0000-0000-0000 (N. Vassilyeva); 0000-0003-0015-1952 (E. Motta); 0000-0001-9108-4278 (J. Lehmann) 0000-0000-0000-0000- 0000(N. Vassilyeva)、0000-0003-0015-1952( E. Motta)、0000-0001-9108-4278( J. Lehmann) 0.50
1Microsoft Academic Graph - http://aka.ms/micros oft-academic 2Scopus - https://www.scopus.c om/ 3Semantic Scholar - https://www.semantic scholar.org/ 4Dimensions - https://www.dimensio ns.ai/ 1Microsoft Academic Graph - http://aka.ms/micros oft-academic 2Scopus - https://www.scopus.c om/ 3Semantic Scholar - https://www.semantic scholar.org/ 4Dimensions - https://www.dimensio ns.ai/ 0.50
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Open Research Knowledge Graph5 [18], and others. open research knowledge graph5 [18]などです。 0.68
These solutions are crucial for performing large-scale bibliometric studies, informing funding agencies and research policymakers, supporting a variety of intelligent systems for querying the scientific literature, identifying research topics, suggesting relevant articles and experts, detecting research trends, and so on. これらのソリューションは、大規模な文献学研究の実施、資金提供機関や研究政策立案者への通知、科学文献の問い合わせ、研究トピックの特定、関連記事や専門家の提案、研究動向の発見など、様々なインテリジェントなシステムのサポートに不可欠である。
訳抜け防止モード: これらの解は大規模な書誌学研究に不可欠である。 資金提供機関や研究政策立案者に 科学文献を照会する 様々な知的なシステムを支援する 研究トピックの特定、関連記事や専門家の提案、研究トレンドの検出 など。
0.79
Their usefulness and, consequently, our ability to assess research dynamics, are however crucially limited by their incompleteness. しかし、その有用性とその結果、研究のダイナミクスを評価する能力は、その不完全性によって極めて制限されている。 0.48
Even basic metadata such as affiliations, organization types, references, research topics, and conferences are often missing, noisy, or not properly disambiguated. アフィリエイト、組織タイプ、参照、研究トピック、カンファレンスといった基本的なメタデータでさえ、しばしば欠落、騒々しく、あるいは適切に曖昧にされない。
訳抜け防止モード: アフィリエイト、組織タイプ、参照といった基本的なメタデータさえも。 研究の話題や会議は しばしば欠落し 騒々しく 曖昧にされません
0.69
Therefore, apparently simple tasks such as identifying the affiliation and the country of origin of a publication still require a large amount of manual data cleaning [27]. そのため、出版元を特定するといった明らかに単純な作業は、まだ大量の手作業によるデータのクリーニングを必要とする[27]。 0.70
Traditionally, data integration methods have been appliedtosolvedatain completenessinthecon textofdatabases and repositories. 伝統的に、データ統合メソッドは、解決されたataincompleteness inthecontextofdataba sesとリポジトリに適用される。 0.49
However, when completing and refining large KGs, it is crucial to adopt scalable and automatic approaches. しかし、大規模なkgを完成・精製する場合、スケーラブルで自動的なアプローチを採用することが不可欠である。 0.52
Among the many possible graph completion methods,KnowledgeGra phEmbedding(KGE)mode lshave recently gained a lot of attention. 多くのグラフ補完手法として、KnowledgeGraphEmbedd ing(KGE)モデルシェーブが最近注目を集めている。 0.74
KGEs learn representations of graph nodes and edges with the goal of predicting links between existing entities. kgesは既存のエンティティ間のリンクを予測する目的で、グラフノードとエッジの表現を学習する。 0.63
Embedding models have beeninpracticalusefo rvarioustypesofKGsin differentdomains, including digital libraries [58], biomedical [25], and social media [43]. 埋め込みモデルは、デジタルライブラリー[58]、バイオメディカル[25]、ソーシャルメディア[43]を含む、KGsindifferent Domainsの実践的偽型である。 0.67
However, the specific characteristics of scholarly KGs poses important challenges for link prediction methods しかし、学術的なKGの特徴はリンク予測法に重要な課題をもたらす 0.75
5ORKG - https://www.orkg.org /orkg/ 5ORKG - https://www.orkg.org /orkg/ 0.44
Page 1 of 14 14ページ。 0.51
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
based on KGE models [7, 45, 48, 61, 53, 47, 29]. KGEモデル [7, 45, 48, 61, 53, 47, 29] に基づく。 0.76
One crucial aspect is the presence of several N to M relations with NâM. 1つの重要な側面は、NâM とのいくつかの N 対 M の関係の存在である。 0.61
Given a triple (Ò, , ), this situation arises when the cardinality of the entities in the head position (Ò) for a certain relation () is much higher than the one of the entities in the tail position (). この状況は、ある関係 ( ) に対して、主位置 ( ) の実体の濃度が、尾位置 ( ) の実体の濃度よりもはるかに高いときに生じる。 0.34
This is the case for most scholarly knowledge graphs [37, 51, 1, 62, 20] that usually categorize millions of documents (e g , papers, patents) according to a relatively small set of categories (e g , topics, affiliation kinds, countries, chemical compounds). 学術的な知識グラフ(37, 51, 1, 62, 20] では、比較的小さなカテゴリ(トピック、アフィリエーション種、国、化学物質など)に従って、何百万もの文書(例えば、論文、特許)を分類することが多い。
訳抜け防止モード: これは、ほとんどの学術知識グラフ [37, 51, 1, 62, 20 ] において、比較的小さなカテゴリ (eg, 1, 62, 20 ) に従って、通常数百万の文書 (eg, paper, patents ) を分類する。 トピック,アフィリエイトの種類,国,化学物質)。
0.81
Current KGE models lack the ability to handle effectively these kinds of relations since they are unable to assign to each entity a well distinct embedding vector in a low dimensional space. 現在のkgeモデルは、低次元空間内の明確に異なる埋め込みベクトルを各エンティティに割り当てることができないため、これらの関係を効果的に扱う能力が欠けている。 0.76
As a result, linkpredictionandnod eclassificationtechniquesthat exploit these embeddings tend to perform poorly. その結果、linkpredictionとnodeclassificationte chniquesthatはこれらの埋め込みを悪用する傾向がある。 0.41
Toaddressthisproblem ,weproposeTrans4E,an ewembedding model specifically designed to support link prediction for KGs which present N to M relations with NâM. Toaddressthisproblem ,weproposeTrans4E,an ewembedding model, designed to support link prediction for KGs which present N to M relations with NâM。 0.85
Specifically, Trans4E tackles the issue by providing a larger number of possible vectors (8 − 1, where  is the embeddingdimension)t obeassignedtoentitie sinvolvedinNtoM relations. 具体的には、trans4e はより多くの可能なベクトル (8, − 1 ) を提供してこの問題に対処している。 0.70
Trans4E enables the generation of a well distinct vector for each entity even when using small embedding dimensions. Trans4Eは、小さな埋め込み次元を使用しても、各エンティティに対して明確なベクトルを生成することができる。 0.60
The motivating scenario for this work was supplied by the Academia/Industry DynAmics (AIDA)6 Knowledge Graph [2], a resource that was designed for studying the relationship between academia and industry and for supporting systems for predicting research dynamics. この研究の動機づけとなるシナリオは、学界と産業の関係を研究し、研究ダイナミクスを予測するためのシステムを支援するために設計された、aida(academia/indust ry dynamics)6 knowledge graph [2]によって提供された。 0.72
The current version of AIDA integrates the metadata about 21M publications from Microsoft Academic Graph (MAG) and 8M patents from Dimensions in the field of Computer Science. AIDAの現在のバージョンでは、Microsoft Academic Graph(MAG)の約2100万のパテントと、コンピュータサイエンスの分野におけるDimensionsの800万のパテントが統合されている。
訳抜け防止モード: AIDAの現在のバージョンでは、Microsoft Academic Graph(MAG)から約21万のパブリッシュが統合されている。 コンピュータ科学分野のディメンジョンズから8Mの特許を取得した。
0.62
In this resource, documents are categorized according to their research topics drawn from the Computer Science Ontology (CSO)7 [39] and classified with their authors’ affiliation types on the Global Research Identifier Database (GRID)8 (e g , ‘Education’, ‘Company’, ‘Government’, ‘Nonprofit’). 本資料では,CSO (Computer Science Ontology, CSO)7[39]から抽出した研究トピックに基づいて文書を分類し,Global Research Identifier Database (GRID)8 (eg , ‘Education', ‘Company’, ‘Government’, ‘Nonprofit’)の著者のアフィリエイトタイプに分類する。 0.76
Thissolutionenablesa nalysingtheevolution of research topics across academia, industry, government institutions, and other organizations. 学界、産業、政府機関、その他の組織における研究トピックの変遷 0.62
For instance, it allows us to detect that a specific topic, originally introduced by academia, has been recently adopted by industry. 例えば、大学が最初に導入した特定のトピックが、最近業界によって採用されていることを検出できます。 0.67
It can also support systems for predicting the impact of specific research efforts on the industrial sector [38] and the evolution of technologies [34]. また、特定の研究努力が産業部門 [38] に与える影響や技術の進化 [34] を予測するシステムも支援できる。 0.80
Nevertheless, only 5.1M out of the 21M articles could be mapped to a GRID and characterized according to their affiliation type. にもかかわらず、21mの物品のうち5.1mしかグリッドにマッピングできず、そのアフィリエーションタイプによって特徴付けられる。 0.54
Therefore, more than 75% of the publications are missing this critical information, significantly reducing the scope and accuracy of the resulting analytics. したがって、出版物の75%以上がこの重要な情報を欠いているため、結果の分析範囲と精度は著しく低下している。 0.76
In order to show that our approach can be applied to fields with very different characteristics, we also use it to complete the Fields of Study, which is a collection of terms from multiple disciplines utilized to index the articles in MAG. このアプローチが、非常に異なる特性を持つ分野に適用可能であることを示すために、我々は、magの論文の索引付けに使用される複数の分野の用語の集まりである研究分野を完結させるためにも使用します。 0.76
Indeed, the completeness of the set of 実際 集合の完全性は 0.52
6AIDA - http://aida.kmi.open .ac.uk 7CSO - https://cso.kmi.open .ac.uk/ 8GRID - https://www.grid.ac/ 6AIDA - http://aida.kmi.open .ac.uk 7CSO - https://cso.kmi.open .uk/ 8GRID - https://www.grid.ac/ 0.41
terms associated with a paper varies a lot and depends on the quality and style of the abstract, which in turn is often parsed from online PDFs, leading to mistakes and missing content. 論文に関連する用語は多種多様であり、要約の質やスタイルに依存するが、その内容はしばしばオンラインのpdfからパースされ、誤りやコンテンツの欠落に繋がる。 0.77
This in turn hinders our ability to understand the research concepts associated with the paper and to obtain comprehensive analytics. これにより、論文に関連する研究概念を理解し、包括的な分析を得る能力が損なわれます。 0.68
Completing the affiliation types and the Fields of Study is crucial for improving the overall quality of these knowledge graphs and a very good practical use case for link prediction. アフィリエーション型と研究分野の完成は、これらの知識グラフの全体的な品質向上に不可欠であり、リンク予測の非常に良い実用的なユースケースである。 0.70
WeevaluatedTrans4Eag ainstseveralalternat ivemodels (TransE, RotatE, QuatE, ComplEx) on the task of link prediction on AIDA, MAG, and four other well-known benchmarks (FB15K, FB15k-237, WN18, and WN18RR). Weevaluated Trans4Eagainstsevera lalalternativemodels (TransE, RotatE, QuatE, ComplEx) on task of link prediction on AIDA, MAG and other well-known benchmarks (FB15K, FB15k-237, WN18RR)。 0.74
The experiments showed that Trans4E outperforms the other approaches in the case of N to M relations with N â M and yields very competitive results in all the other cases, in particular when using low embedding dimensions. 実験により、Trans4E は N â M と N to M の関係において他のアプローチよりも優れており、特に低埋め込み次元を使用する場合、他のすべての場合において非常に競合的な結果が得られることが示された。
訳抜け防止モード: 実験では Trans4E は N to M と N â M の関係において他の手法より優れている そして他のすべてのケース、特に低埋め込み次元を使用する場合、非常に競争力のある結果をもたらす。
0.71
The ability to solve the N â M issue and to perform well even when adopting small embedding dimensions makes Trans4E particularly apt for handling large scale knowledge graphs that describe millions of entities of the same type (e g , documents, persons). n âm問題を解く能力と、小さな埋め込み次元を取り入れてもうまく機能する能力により、trans4eは、同じタイプの数百万のエンティティ(ドキュメント、人など)を記述する大規模な知識グラフを扱うのに特に適しています。
訳抜け防止モード: N â M 問題を解く能力と, 埋め込み次元の小さい場合においてもよく機能する能力 Trans4Eは特に大規模知識グラフを扱うのに適している 同じタイプの数百万のエンティティ(例、ドキュメント、人)を記述する。
0.78
In summary, the contributions of our work are the following: まとめると、私たちの仕事の貢献は以下のとおりです。 0.72
• We propose Trans4E, a new embedding model specifically designed to provide link prediction for largescale KGs presenting N to M relations with N â M. • We apply Trans4E on a real word scenario that involvescompletingaffiliationtypesandField sofStudy (N â M relations) in AIDA and MAG. • N â M と N â M の関係を示す大規模 KG のリンク予測を特化して設計された新しい埋め込みモデルである Trans4E を提案し,AIDA と MAG の近似型とFieldsofStudy (N â M 関係) を補完する実語シナリオに Trans4E を適用する。 0.79
• We further evaluate our approach on four wellknown benchmarks (FB15k, FB15k-237, WN18, and WN18RR), showing that Trans4E yields competitive performances in several configurations. (<i>FB15k,FB15k-237,WN18 ,WN18RR)では,Trans4Eが複数の構成で競合性能を発揮することを示す。 0.61
The rest of the paper is organised as follows. 残りの論文は以下の通り整理される。 0.65
In Section 2, we review the literature on current embedding models for data completion and scholarly knowledge graphs. 第2節では、データ補完と学術的知識グラフに関する現在の埋め込みモデルに関する文献を概説する。 0.78
In Section 3, we present a motivating scenario involving the completion of the AIDA knowledge graph. 第3節では,AIDA知識グラフの完成に伴う動機づけシナリオについて述べる。 0.75
In Section 4, we describeTrans4E.Sect ion5reportstheevalua tionofthemodel versus alternative solutions. 第4節ではTrans4E.Section5repo rtstheevaluation ofthemodelと代替解について述べる。 0.45
Finally, in Section 6 we summarise the main conclusions and outline future directions of research. 最後に、第6節で主要な結論を要約し、研究の今後の方向性について概説する。 0.55
2. Background and Related Work In this section, we will first review the graph embedding modelsandtheirapplic ationtolinkpredictio n. 2. 背景と関連する作業 この節では、まずグラフ埋め込みモデルandtheirapplicationt olinkpredictionをレビューします。 0.69
Thenwewill discussthecurrentgen erationofscholarlykn owledgegraphs that can benefit from these solutions. 次に、これらの解の恩恵を受けることのできる、現在進行する学習図形について論じる。 0.23
2.1. Knowledge Graph Embedding Models In this section, we introduce the definitions required to understand our approach. 2.1. 知識グラフ埋め込みモデル この節では、アプローチを理解するために必要な定義を紹介します。 0.72
Embedding Vectors. ベクトルを埋め込む。 0.62
Let the knowledge graph be  = (ç,,ð ), whereç is the set of entities (nodes) in the ここで、知識グラフは、その中のエンティティ(ノード)の集合である。
訳抜け防止モード: 知識グラフを t = ( t, t, t, t, t, t ) とする。 は、エンティティ(ノード)の集合です。
0.64
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 2 of 14 14頁2頁。 0.71
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
graph,  is the set of all relations (edges), and ð is the set of all triples in the graph in the form of (Ò, , ), e g , (Berlin, CapitalOf, Germany). グラフ (graph) はすべての関係 (edges) の集合であり、 ð はグラフのすべての三重項の集合であり、その形式は (\, ), e g , (berlin, capitalof, germany) である。
訳抜け防止モード: グラフは、すべての関係(端)の集合である。 ð はグラフ内のすべての三重項の集合であり、( , , , , , , ) の形で表される。 eg , (ベルリン , CapitalOf , ドイツ )。
0.82
KGE models are applied to KGs for link prediction by measuring the degree of correctness of a triple. KGEモデルは、三重項の正しさの度合いを測り、リンク予測のためにKGに適用される。 0.69
To do so, a KGE model aims at mapping each entity and relation of the graph into a vector space (shown as (, , ), , ,  ࢠ Ó), where d is the embedding dimension of each vector. そのために、kgeモデルはグラフの各実体とグラフの関係をベクトル空間にマッピングすることを目的としている(例えば、 ( )、 ( )、 ( )、 ( )、 ( )、 ( d ) は各ベクトルの埋め込み次元である)。 0.76
By Ò, we refer to the -th element of the vector  where  ranges in {1, … , }. ここでは は {1, ... , . . . {\displaystyle {1,...,.} の範囲である。
訳抜け防止モード: によって、ベクトル s の次数要素は、ここで言う。 は { 1, ..., ] } の範囲である。
0.62
The vector representation of the entities and the relations in a KG are the actual embeddings. 実体のベクトル表現とKG内の関係は、実際の埋め込みである。 0.53
Score Function. Using this representation, the plausibility of the triples is then assessed by the scoring funcIf a triple is tion (, , ) of the applied KGE model. スコア関数。 この表現を用いて、三重項の可算性は、適用されたKGEモデルの三重項が tion > ( , , , , ) であれば、スコアリング関手によって評価される。 0.64
more plausible, its score should be higher. もっとありそうなのは スコアが高くなることです 0.51
For example, (Berlin, CapitalOf, Germany) should be higher than (Berlin, CapitalOf, France). 例えば、(Berlin, CapitalOf, Germany)は、(Berlin, CapitalOf, France)よりも高くなければならない。 0.82
Negative Sampling. Typical machine learning approaches are trained on both positive and negative samples. 負のサンプリング。 典型的な機械学習アプローチは、正と負の両方のサンプルに基づいて訓練される。 0.65
However, all the triples present in KGs are considered true, and this necessitates the injection of negative samples in the training of the KGEs. しかし、KGsに存在する三重項はすべて真であると考えられており、これはKGEsのトレーニングにおいて負のサンプルを注入する必要がある。 0.64
In this work we use Adversarial negative sampling (adv) for this purpose. この研究では、adv(adversarial negative sampling)を用いています。 0.71
This technique generates a set of negative samples from a triple (Ò, , ) by using a probabilistic algorithm to replace Ò or  with a random entity (Ò߰ or ߰) existing inç. この手法は、確率的アルゴリズムを用いて三重対から負のサンプルの集合を生成する。
訳抜け防止モード: この手法は確率論的アルゴリズムを用いて三重項から一組の負のサンプルを生成する。 inç が存在するランダムな実体 ( t または t ) に t または t を置き換える。
0.70
Loss Function. Since at the beginning of the learning process, the embedding vectors are initialized with random values,thescoresofth etriplesforpositivea ndnegativesamples are also random. 損失機能。 学習プロセスの開始時に、埋め込みベクトルはランダム値で初期化されるので、thescoresofthetriple sfor positive and negativesamplesもランダムである。 0.72
Optimization of a loss function î is utilized to adjust the embeddings in such a way that positive samples get higher scores than the negatives ones. 損失関数の最適化は、正のサンプルが負の値よりも高いスコアを得るように埋め込みを調整するために利用される。 0.84
Stochastic Gradient Descent (SGD) method is commonly used for optimising the loss function. 確率勾配降下(sgd)法は損失関数の最適化によく用いられる。 0.73
N to M Relations. As mentioned above, given a relation , the representation of facts in triple form is (Ò, , ). N対Mの関係。 上述したように、関係 > が与えられたとき、三重形式における事実の表現は、 ( , , , , ) である。 0.72
Depending on the type of a relation and its meaning, for a fixed head (say Ò1), there are at most M possible tails connected to the head, i.e. 関係のタイプとその意味によって、固定された頭部(例えば 1 )には、少なくとも m 個の可能な尾が頭部に接続されている。 0.73
{(Ò1, , 1), (Ò1, , 2)}, … , (Ò1, , ). {(Ò1, , 1), (Ò1, , 2)}, … , (Ò1, , ). 0.91
Similarly, for a fixed tail, (say 1), there are at most N possible head entity, i.e. 同様に、固定された尾(例えば 1 )に対して、少なくとも n 個の頭部実体が存在する。 0.71
{(Ò1, , 1), (Ò2, , 1), … , (Ò, , 1)}. {(Ò1, , 1), (Ò2, , 1), … , (Ò, , 1)}. 0.97
There are four cases that may arise for a relations which connects a different number of heads and tails: a) both N and M are small, b) both M and N are large, c) N is small and M is large, and d) N is large and M is small. a) n と m の両方が小さい、b) 両方の m と n が大きい、c) n が小さい、m が大きい、d) n が大きい、m が小さい、の4つのケースがある。
訳抜け防止モード: 異なる数の頭と尾を繋ぐ関係に生じる4つのケースがある。 a) N と M はともに小さい。 b) M と N はともに大きい、c) N は小さく、M は大きい。 と d ) N は大きい、M は小さい。
0.71
The latter is the focus of this paper. 後者は本論文の焦点である。 0.65
For example, in the AIDA knowledge graph the “hasType” relations connects a very large number of head entities (5.1M articles) to only 8 tail entities (the GRID types). 例えば、AIDAナレッジグラフでは、"hasType"の関係は、非常に多数のヘッドエンティティ(5.1M記事)と8つのテールエンティティ(GRIDタイプ)を繋いでいる。 0.68
2.2. Review of State-of-the-art KGEs els focusing in particular on their scoring function. 2.2. 特にスコアリング機能に着目した最先端KGEのレビュー 0.64
TransE [7] is one of the early embedding models and is well known for its outstanding performance and simplicity. transe [7]は初期の組込みモデルの1つであり、その優れた性能と単純さでよく知られている。 0.75
It is a solid baseline that can still outperform many of the most recent and complex KGEs[17]. これは、最も最近で複雑な KGEs[17] の多くをいまだに上回る固体基底線である。 0.70
The idea of the TransE TransEの考え方 0.61
Herewesummarizesomeo fthemostusedexisting mod- 最強のデクシストモッドの登場- 0.17
model is to enforce embedding of entities and relations in a positive triple (Ò, , ) to satisfy the following equality: モデルは、以下の等式を満たすために、正の三重項に実体と関係を組み込むことを強制することである。 0.64
h + r ࣈ t (1) where h, r and t are the embedding vectors of head, relation, and tail, respectively. h + r > t 1) h, r, t はそれぞれhead, relation, tail の埋め込みベクトルである。 0.65
TransE model defines the following scoring function: transeモデルは以下のスコアリング関数を定義する。 0.69
(Ò, ) = −ߠh + r − tߠ t = t = t = t である。 0.27
(2) RotatE [45] is a model designed to transform the head entity to the tail entity by using the relation rotation. 2) RotatE[45]は、関係回転を用いてヘッドエンティティをテールエンティティに変換するように設計されたモデルである。 0.83
This model embeds entities and relations in complex space. このモデルは複素空間に実体と関係を埋め込む。 0.80
If we constrain the norm of entity vectors, this model would be reduced to TransE. 実体ベクトルのノルムを制約すれば、このモデルはTransEに還元される。 0.59
The scoring function of RotatE is RotatEのスコアリング機能は 0.63
(Ò, ) = −ߠhr − tߠ t = t = t = t である。 0.30
(3) in which  is the element-wise product. (3) が要素ワイズ積であるような場合。 0.69
Rotate is one of the recent state-of-the-art models which is leading the accuracy competition among KGEs [45]. Rotateは最近の最先端モデルの1つであり、KGE間の精度競争をリードしている[45]。 0.71
ComplEx [48] is a semantic matching model, which assesses the plausibility of facts by considering the similarity of their latent representations. ComplEx[48]は,その潜在表現の類似性を考慮して,事実の妥当性を評価するセマンティックマッチングモデルである。 0.83
In other words, it is assumed that similar entities have common characteristics, i.e. 言い換えれば、類似した実体は共通の特性を持つと仮定される。 0.76
are connected through similar relationships [32, 52]. 同じような関係でつながっています [32, 52] 0.74
In ComplEx the entities are embedded in the complex space. ComplExでは、エンティティは複雑な空間に埋め込まれる。 0.75
The score function of ComplEx is given as follows: ComplExのスコア関数は次のように与えられる。 0.79
(Ò, ) = Ó( diag() İ) (Ò, ) = Ó( diag() İ) 0.90
in which İ is the conjugate of the vector  and Ó returns the real part of the complex number. ここで s はベクトル s の共役であり、 ó は複素数の実部を返す。
訳抜け防止モード: がベクトルの共役であるとき、 はベクトルの共役である そして は複素数 の実際の部分を返す。
0.73
QuatE [61] model relations in the quaternion space. 四元数空間におけるQuatE[61]モデル関係 0.76
Similarly to RotatE, QuatE represents a relation as a rotation. RotatE と同様に、QuatE は回転として関係を表す。 0.81
However, a rotation in quaternion space is more expressive than a rotation in complex space. しかし、四元数空間の回転は複素空間の回転よりも表現力が高い。 0.76
A product of two quatertude2 and then rotating it in four dimensions. 2つの四面体からなる積を4次元で回転させる。 0.69
QuatE nions 1 ࣹ 2 is equivalent to first scaling 1 by magnifinds a mapping ç ࢐ Ò, where an entity h is represented by a quaternion vector  = Ò + Ò + Ò + Ò, with Ò, Ò, Ò, Ò ࢠ Ó. クエーテ・ニオン(quate nions、四元数 nion、四元数 nion、四元数 nion、四元数 nion、四元数 nion、四元数 nion、四元数 nions、四元数 nions、四元数 nions、四元数 nions) は、マグニフィンズ(magnifinds)による第一のスケーリング (first scaling、第1次スケーリング) と等価であり、h は四元数ベクトル (quation vector) で表される。
訳抜け防止モード: QuatE nions は、写像 ç を拡大することで、最初のスケーリング s1 と等価である。 実体 h は四元数ベクトル(英語版)(四元数ベクトル)で表される。 with Ò , Ò , Ò , Ò ࢠ Ó.
0.68
(Ò, , ) = ߰   =߰ Ò,  (4) where,  is the inner product. 内積 (inner product) は、内積 (inner product) である。
訳抜け防止モード: (Ò, ,  ) = ߰   = ߰ Ò, (4) ここで、(4) は内積である。
0.71
߰ is computed by first normalizing the relation embedding r =  +  +  +  to a unit quaternion: 最初の計算は、まず r を単位四元数に埋め込む関係を正規化する。 0.47
The scoring function is computed as follows: 得点関数は次のように計算される。 0.71
Ò, +߰ Ò, +߰ 0.78
Ò, +߰ Ò, +߰ 0.78
Ò, +߰ Ò, +߰ 0.78
(5) () =  = (5) () =  = 0.85
Ý  +  +  +   + 2  Ý  +  +  +   + 2  0.89
 + 2 2  + 2  + 2 2  + 2 0.89
and then computing the Hamiltonian product between () そして、ハミルトニアン積を ...( ) の間で計算する。 0.43
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 3 of 14 14頁3頁。 0.72
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
and h = Ò + Ò + Ò + Ò: と h = s + s + s + h である。 0.83
߰ =  ࣹ () ࢼ=Ò − Ò − Ò − Ò +Ò + Ò + Ò − Ò  +Ò − Ò + Ò + Ò  +Ò + Ò − Ò + Ò  ߰ =  ࣹ () ࢼ=Ò − Ò − Ò − Ò +Ò + Ò + Ò − Ò  +Ò − Ò + Ò + Ò  +Ò + Ò − Ò + Ò  0.61
(6) 2.3. Further Related Work Beside KGE models such as QuatE, ComplEx, TransE, and RotatE, there are several related approaches based on neural networks for KG completion. (6) 2.3. さらに、QuatE、ComplEx、TransE、RotatEといったKGEモデル以外にも、KG完了のためのニューラルネットワークに基づくいくつかの関連するアプローチがある。 0.75
Here we cover the most relevant ones with specific focus on link prediction. ここではリンク予測に焦点を絞った最も関連するものを取り上げる。 0.63
Few-Shot Learning (FSL) takes advantage of prior knowledge for efficiently learning from a limited number of examples [54, 59]. FSL(Few-Shot Learning)は、限られた例[54, 59]から効率的に学習するための事前知識を活用する。 0.76
Some FSL methods focus on graph meta-learning [5, 60, 8], which provide fast adaption to the newly imported data. いくつかのFSL手法はグラフメタラーニング [5, 60, 8] に重点を置いており、新たに輸入されたデータに迅速に適応できる。 0.65
Such techniques are not reported to be suitable for large scale KGs and are mainly used on image datasets. このような手法は大規模なKGには適さないと報告されており、主に画像データセットに使われている。 0.62
Some other FSL methods focus on link prediction on graphs. その他のFSL法はグラフ上のリンク予測に焦点を当てている。 0.63
For instance, authors in [10] use meta information for learning the most important and relevant knowledge with high retrieval speed. 例えば、[10]の著者は、検索速度の高い最も重要な関連する知識を学ぶためにメタ情報を使用します。
訳抜け防止モード: 例えば [10 ] の著者はメタ情報を使っています 高い検索速度で 最も重要かつ関連性の高い知識を学習することです
0.81
This model is similar to TransE and therefore suffers from the same limitation regarding N to M relation types with N â M. In addition, FSL is most usefulinscenarioswit hfewexamples. このモデルは TransE と似ており、したがって N â M と N â M の関係型に関する同じ制限に悩まされている。
訳抜け防止モード: このモデルは TransE と似ており、したがって N と M の関係型に関して N と M の関係型に関して同じ制限を受ける。 FSLはscenarioswithfewexam plesで最も有用である。
0.65
Thisisnotthecaseof large-scale scholarly knowledge graph that usually can produce a large number of examples. 大規模な学術知識グラフは、通常多くの例を作成できる。 0.66
Transfer Learning (TL) aims at reusing the knowledge gained while solving a specific problem for solving a differentbutrelatedone[64]. トランスファーラーニング(TL)は,異義語[64]を解くための特定の問題を解きながら得られた知識を再利用することを目的としている。
訳抜け防止モード: transfer learning (複数形 transfer learnings) differentbutrelatedo ne[64 ]を解決するための特定の問題を解決する際に得られる知識を再利用する。
0.66
Thisstrategyenablest oaddressnew learning tasks without extensive re-training [14, 35]. 広範囲な再学習を伴わない新しい学習課題 [14, 35]。 0.59
A family of methods labelled Graph Transfer Learning (GTLs) are specifically designed to work on graph-structured data [24]. グラフ転送学習(GTL)というラベル付きメソッドのファミリーは、グラフ構造化データ [24] を扱うように設計されています。 0.72
However, they are not directly applicable to the task discussed in this paper since they mostly focus on similarity between entities rather than link prediction. しかし,本論文では,リンク予測よりもエンティティ間の類似性に着目しているため,直接的に適用できない。 0.73
Graph Neural Networks (GNNs) are often used for link prediction [3, 57]. グラフニューラルネットワーク(GNN)はリンク予測によく使用される[3, 57]。 0.77
These methods compute the state of embeddings for a node according to the local neighborhood [63, 55, 50]. これらのメソッドは、ローカル近傍 [63, 55, 50] に従ってノードの埋め込み状態を計算する。 0.82
The embedding of a node is then created as a -dimension vector and produces output information such as the node label. ノードの埋め込みは、次に「次元ベクトル」として作成され、ノードラベルのような出力情報を生成する。 0.67
However, the high computation costs of GNNs make them unsuitable for large-scale knowledge graphs. しかし、GNNの計算コストが高いため、大規模知識グラフには適さない。 0.71
Several approaches for link prediction based on Deep Neural Networks, such as KBAT [28] and CapsE [49], reportedveryhighperf ormance,butwerenotco nsistentacross different benchmarks. KBAT [28] や CapsE [49] のようなディープニューラルネットワークに基づくリンク予測のためのいくつかのアプローチは、レポーザルハイパフォーマンスだが、異なるベンチマークで異なる。 0.64
An analysis by Su at al. alにおけるSuの解析 0.68
[46] showed that this behaviour was due to an inappropriate evaluation protocol, and the performance of these models dropped after fixing the relevant biases. 46]では,この動作は不適切な評価プロトコルによるものであることが示され,関連するバイアスを修正した後,これらのモデルの性能が低下した。 0.66
According to them, instead, shallow KGE models (e g , TransE, RotatE, ComplEx, QuatE) are able to perform consistently across several evaluation protocols [46]. それらによると、浅いKGEモデル(例えば、TransE、RotatE、CompulEx、QuatE)は、複数の評価プロトコル [46] を一貫して実行することができる。 0.69
Another interesting family of approaches regards community embeddings, which can optimize node embedding もうひとつの興味深いアプローチは、ノード埋め込みを最適化するコミュニティ埋め込みだ。 0.55
by using a community-aware high-order proximity [9]. コミュニティ対応の高次近接を利用して[9]。 0.74
For instance,vGraph[44]isaprobabilisticgene rativemodelthat learns community membership and node representation collaboratively. 例えば、コミュニティメンバシップとノード表現を協調的に学習するvGraph[44]isa確率的生成モデル。 0.68
ComE+ [9] is another approach for community embedding which can tackle the situation in which the number of communities is unknown. come+ [9] はコミュニティの埋め込みに対する別のアプローチであり、コミュニティの数が不明な状況に対処できる。
訳抜け防止モード: ComE+ [9 ]はコミュニティ埋め込みのためのもう1つのアプローチ コミュニティの数が不明な状況に 対処できるのです
0.84
However, these methods focus on node and community embeddings based on intragroup connections in terms of clustering and node classification tasks rather than link prediction. しかし、これらの手法は、リンク予測よりもクラスタリングやノード分類タスクの観点から、グループ内接続に基づくノードとコミュニティの埋め込みに焦点を当てている。 0.71
Details of more relevant works are discussed in several surveys [6, 11]. 関連する作業の詳細については,いくつかの調査 [6, 11] で論じる。 0.74
A comprehensive review of recent approaches for knowledge graph representation is available in a survey paper [19], where KG embedding models are discussed in terms of representation space, scoring function, encoding models, and auxiliary information. 知識グラフ表現に関する最近のアプローチの総合的なレビューは,KG埋め込みモデルを表現空間,スコアリング関数,符号化モデル,補助情報の観点から論じる調査論文[19]で見ることができる。 0.78
The survey also discusses a broad range of reasoning methods such as Random Walk inference, Deep Reinforcement learning for multi-hop reasoning, and rule-based reasoning which however mainly focus on path-related reasoning rather than link prediction. また、ランダムウォーク推論、マルチホップ推論のための深い強化学習、リンク予測よりも経路関連推論に重点を置いたルールベース推論など、幅広い推論手法についても論じた。 0.60
2.4. Scholarly Knowledge Graphs Inthelastyears, wesawtheemergenceofs everalknowledge graphs describing research publications.Traditi onally, they either focus on the metadata of the articles, such as titles, abstracts, authors, organizations, or, more rarely, they offer a machine-readable representation of the knowledge contained therein. 2.4. 学術的知識グラフ この1年間で、研究出版物を記述するWesawtheemergenceofs everalknowledgeグラフは、タイトル、抽象論、著者、組織、あるいはより稀に、それらに含まれる知識の機械可読表現を提供する。
訳抜け防止モード: 2.4. Scholarly Knowledge Graphs Inthe years, wesawtheemergenceofs everalknowledge graphs described research publications. 伝統的に タイトルなどの記事のメタデータに フォーカスするか 抽象論、著者、組織、あるいはまれに、彼らは機械を提供する。
0.76
A good example of the first category is Microsoft Academic Graph (MAG) [51], which is a heterogeneous knowledge graph containing the metadata of more than 242M scientific publications, including citations, authors, institutions, journals, conferences, and Fields of Study. 最初のカテゴリのよい例は、Microsoft Academic Graph (MAG) [51] である。これは、引用、著者、機関、雑誌、会議、研究分野を含む242万以上の科学出版物のメタデータを含む異種知識グラフである。 0.76
Similarly, theSemanticScholarOp enResearchCorpus9 [1]isadataset of about 185M publications released by Semantic Scholar, an academic search engine provided by the Allen Institute for Artificial Intelligence. 同様にthemanticscholaropen researchcorpus9 [1]isadataset of about 185m publications released by semantic scholarはアレン人工知能研究所が提供している学術検索エンジンである。
訳抜け防止モード: SemanticScholarOpenR esearchCorpus9 [1]isadataset of about 185M published by SemanticScholar, アレン人工知能研究所が提供する学術検索エンジン
0.77
The OpenCitations Corpus [37] is released by OpenCitations, an independent infrastructure organization for open scholarship dedicated to the publication of open bibliographic and citation data with semantic technologies. opencitations corpus[37]は、open bibliographic and citation data with semantic technologiesの発行を専門とする、オープン奨学金のための独立したインフラストラクチャ組織であるopencitationsによってリリースされた。 0.67
The current version includes 55M publications and 655M citations. 現在のバージョンには55万の出版物と655万の引用が含まれている。 0.41
Scopus is a well-known dataset curated by Elsevier, which includes about 70M publications andisoftenusedbygove rnmentsandfundingbod iestocompute performance metrics. ScopusはElsevier氏がキュレートした有名なデータセットで、約7000万のパブリッシュとisoftenusedby Governmentsandfundin gbodiestocomputeパフォーマンスメトリクスが含まれている。 0.34
The AMiner Graph [62] is a corpus of more than 200M publications generated and used by the AMiner system10. aminer graph [62]は、aminer system10によって作成された200万以上の出版物のコーパスである。 0.69
AMiner is a free online academic search and mining system that also extracts researchers’ profiles from the Web and integrates them in the metadata. AMinerは無料のオンライン学術検索とマイニングシステムで、研究者のプロフィールをWebから抽出し、メタデータに統合する。 0.76
The Open Academic Graph (OAG)11 is a large knowledge graph integrating Microsoft Academic Graph and AMiner Graph. Open Academic Graph (OAG)11は、Microsoft Academic GraphとAMiner Graphを統合した大きな知識グラフである。 0.93
The current version contains 208M papers from MAG and 172M from AMiner. 現在のバージョンには、magの208mの論文とaminerの172mの論文が含まれている。 0.45
Core [20]12 is a repository that inte9ORC - http://s2-public-api -prod.us-west-2.elas ticbeanstalk.com/ Core [20]12は inte9ORC - http://s2-public-api -prod.us-west-2.elas ticbeanstalk.com/ のリポジトリです。 0.43
corpus/10AMiner - https://www.aminer.c n/ corpus/10AMiner - https://www.aminer.c n/ 0.44
11OAG - https://www.openacad emic.ai/oag/ 12CORE - https://core.ac.uk/ 11OAG - https://www.openacad emic.ai/oag/12CORE - https://core.ac.uk/ 0.44
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 4 of 14 14頁4頁。 0.72
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
grates 24M open access research outputs from repositories andjournalsworldwide . grates 24m open access research outputs from repository and journalsworldwide.co m (英語) 0.66
TheDimensionsCorpusi sadataset produced by Digital Science which integrates and interlinks 109M research publications, 5.3M grants, and 40M patents. TheDimensionsCorpusi sadatasetはDigital Scienceが製造し、109Mの研究出版物、5.3Mの補助金、4000Mの特許を統合し、相互接続する。
訳抜け防止モード: The DimensionsCorpusisad ataset produced by Digital Science that 109Mの研究出版物、5.3M特許、40M特許を統合する。
0.65
All these resources suffer from different degrees of data incompleteness. これらのリソースはすべて、データの不完全性の程度が異なる。 0.60
For instance, it is still challenging to identify and disambiguate affiliations, which also hinders the ability to categorize the articles according to their affiliation types or countries [27]. 例えば、アフィリエーションの特定や曖昧さの解消は依然として困難であり、アフィリエーションの種類や国によって記事の分類が阻害される[27]。 0.65
Similarly, references are usually incomplete, and the citation count of the same paper tends to vary dramatically on different datasets [37]. 同様に、参照は通常不完全であり、同じ論文の引用数は異なるデータセット [37] で劇的に変化する傾向にある。 0.79
A second category of knowledge graphs focuses instead on representing the content of scientific publications. 知識グラフの第2のカテゴリは、科学出版物の内容を表現することに焦点を当てている。 0.63
This challenging objective was traditionally pursued by the semantic web community, e g , by creating bibliographic repositories in the Linked Data Cloud [33], generating knowledge bases of biological data [4], encouraging the Semantic Publishing paradigm [42], formalising research workflows [56], implementing systems for managing nanopublications [16, 22] and micropublications [41], developing a variety of ontologies to describe scholarly data, e g , SWRC13, BIBO14, BiDO15, SPAR [36]16, CSO17 [40]. This challenging objective was traditionally pursued by the semantic web community, e g , by creating bibliographic repositories in the Linked Data Cloud [33], generating knowledge bases of biological data [4], encouraging the Semantic Publishing paradigm [42], formalising research workflows [56], implementing systems for managing nanopublications [16, 22] and micropublications [41], developing a variety of ontologies to describe scholarly data, e g , SWRC13, BIBO14, BiDO15, SPAR [36]16, CSO17 [40]. 0.85
A recent example is the Open Research Knowledge Graph (ORKG) [18]18, which aims to describe research papers in a structured manner to make them easier to find and compare. 最近の例はOpen Research Knowledge Graph (ORKG) [18]18で、研究論文を構造化された方法で記述し、発見と比較を容易にすることを目的としている。 0.83
Similarly, the Artificial Intelligence Knowledge Graph (AI-KG) [12]19 describes 1.2M statements extracted from 333K research publications in the field of AI. 同様に、AI知識グラフ(AI-KG) [12]19は、AIの分野における333Kの研究論文から抽出された1.2Mのステートメントを記述している。 0.64
Since extracting the scientific knowledge from research articles is still a very challenging task, these resources tend also to suffer from data incompleteness. 研究論文から科学的知識を抽出することは依然として非常に難しい課題であり、これらの資源はデータ不完全さに苦しむ傾向がある。 0.65
Therefore, it is crucial to develop newmodelsthatcouldta cklethisissueandimpr ovethequality of these KGs. したがって、これらのKGの質と質を向上する新しいモデルを開発することが重要である。 0.42
3. Motivating Scenario: AIDA Knowledge 3. シナリオのモチベーション - AIDAの知識 0.75
Graph 3.1. Incompleteness in AIDA Academia, industry, public institutions, and non-profit organizations collaborate in the crucial effort of advancing scientific knowledge. グラフ3.1。 aida academia, industry, public institutions, and non-profit organizationsの不完全さは、科学知識の進歩に欠かせない努力で協力する。 0.64
Analysing the knowledge flow between them, assessing the best policies to harmonise their efforts, and detecting how they address emerging research areas is a critical task for researchers, funding bodies, and companiesinthespaceo finnovation. それらの間の知識の流れを分析し、彼らの努力を調和させる最善の政策を評価し、新興の研究分野への対処方法を検出することは、研究者、資金提供機関、そして宇宙革新における企業にとって重要な課題である。 0.54
However,todayscholar ly KGs [37, 51, 1, 62, 20] do not support well this task since they typically lack a high-quality characterization of the research topics, affiliation types, and industrial sectors. しかし、現在KGs[37,51,1,62,20]は、研究トピック、アフィリエイトタイプ、産業セクターの質の高い特徴を欠いているため、このタスクをうまくサポートしていない。 0.65
Therefore, we recently introduced the Academia/Industry DynAmics (AIDA) Knowledge Graph [2], which includes morethanonebilliontr iplesanddescribes20M publications そこで,我々は最近,Academia/Industry DynAmics (AIDA) Knowledge Graph [2]を導入した。 0.75
13SWRC - http://ontoware.org/ swrc 14BIBO - http://bibliontology .com 15BiDO - http://purl.org/spar /bido 16SPAR - http://www.sparontol ogies.net/ 17CSO - http://http://cso.km i.open.ac.uk 18ORKG - https://www.orkg.org /orkg/ 19AI-KG - http://scholkg.kmi.o pen.ac.uk/ 13SWRC - http://ontoware.org/ swrc 14BIBO - http://bibliontology .com 15BiDO - http://purl.org/spar /bido 16SPAR - http://www.sparontol ogies.net/17CSO - http://://://cso.kmi .open.uk 18ORKG - https://www.orkg.org /orkg/19AI-KG - http://scholkg.kmi.o pen.ac.uk/ 0.42
Table 1 AIDA - Number of documents associated with the main GRID types. 表1 AIDA - 主要なGRIDタイプに関連するドキュメントの数。 0.78
Education Company Government Facility Nonprofit Healthcare Other Typed (GRID) Total 教育会社 官営施設 非営利医療 その他のタイプド(グリッド)総数 0.70
Papers 3,969,097 954,143 185,633 169,234 61,129 28,362 25,028 Papers 3,969,097 954,143 185,633 169,234 61,129 28,362 25,028 0.42
Patents 169,884 5,335,836 特許169,884,335,836 0.46
54,396 66,605 38,959 28180 16,631 54,396 66,605 38,959 28180 16,631 0.50
5,133,171 20,850,710 5,133,171 20,850,710 0.32
5,639,252 7,940,034 5,639,252 7,940,034 0.32
from Microsoft Academic Graph (MAG)20 [51] and 8M patents from Dimensions21 according to the 14K research topics from the Computer Science Ontology (CSO)22 [39]. microsoft academic graph (mag)20 [51] と 8m patent from dimension21 から computer science ontology (cso)22 [39] による 14k の研究トピックによる。 0.73
In addition, 5.1M publications and 5.6M patents that were associated with IDs from the Global Research Identifier Database (GRID)23 in the original data were also classified according to the type of the author’s affiliations and 66 industrial sectors (e g , automotive, financial, energy, electronics) drawn from the Industrial Sectors ontology (INDUSO)24. また、原データ中のglobal research identifier database(grid)23のidに関連付けられた5.1mの出版物と5.6mの特許も、産業部門オントロジー(induso)24から引き出された66の産業部門(自動車、金融、エネルギー、エレクトロニクスなど)のタイプに応じて分類された。
訳抜け防止モード: さらに5.1Mの出版物と5.6Mの特許がある。 元のデータにはGlobal Research Identifier Database (GRID)23のIDが関連付けられていた 著者の所属の種類によっても分類されました 66の産業セクター(自動車、金融、 産業部門オントロジー(INDUSO)24から引き出されたエネルギー、エレクトロニクス)
0.83
The mapping with MAG enables to characterize all articles according to the relevant scholarly entities in the MAG[51,13],including authors, conferences, journals, references (the full citation network), and the Fields of Study. magによるマッピングは、著者、会議、ジャーナル、参照(完全な引用ネットワーク)、研究分野を含むmag[51,13]の関連学術的実体に従って、すべての記事を特徴付けることができる。 0.73
In the following, we will refer to the combination of the two knowledge graph as AIDA+MAG. 以下の2つの知識グラフの組み合わせをAIDA+MAGと呼ぶ。 0.58
AIDAisavailableat http://aida.kmi.open .ac.ukandcan be downloaded as a dump or queried via a Virtuoso triplestore (http://aida.kmi.ope n.ac.uk/sparql/). aidaisavailableat http://aida.kmi.open .ac.ukandcanは、virtuoso triplestore(http://a ida.kmi.open.ac.uk/s parql/)経由でダンプまたはクエリとしてダウンロードすることができる。 0.43
The AIDA ontology builds on SKOS, CSO, and INDUSO and it is available at http://aida.kmi.open .ac.uk/ontology. AIDAオントロジーはSKOS、CSO、INDUSOをベースにしており、http://aida.kmi.open .ac.uk/ontology.comで入手できる。 0.50
Table 1 shows the number of publications and patents associated with the main categories from GRID. 表1は、GRIDの主なカテゴリに関連する出版物と特許の数を示しています。 0.75
A document can be associated with multiples types according to the affiliations of the creators. 文書は、作成者の親和性に応じて、複数のタイプに関連付けることができる。 0.67
Academic institutions (‘education’) are responsible for the majority of research publications (77.5%), while companies contribute to 19.8% of them. 学術機関(「教育」)が研究出版物の大半(77.5%)を担っており、企業が19.8%を占めている。 0.80
When considering patents, the picture is very different: 94.6% of them are from companies and only 3.0% are typed as ’education’. 特許は94.6%が企業出身で、3.0%が「教育」とタイプされている。
訳抜け防止モード: 特許について考えると、この写真は非常に異なる 94.6%が企業、3.0%が「教育」とタイプされている。
0.78
AIDA was specifically designed for analysing the evolution of research topics across academia, industry, government facilities, and other institution. AIDAは、学術、産業、政府施設、その他の機関における研究トピックの進化を分析するために特別に設計された。 0.56
For instance, Figure 1 shows an example of the most frequent 16 high-level topics and reports the relevant percentage of academic publications, industry publications, academic patents, and industrial patents. 例えば、図1は、最も頻度の高い16のトピックの例を示し、学術出版物、業界出版物、学術特許、産業特許の関連割合を報告している。 0.71
Some topics, such as Artificial Intelligence and Theoretical Computer Science, are mostly addressed by aca- 人工知能や理論計算機科学といったいくつかのトピックは、主にacaによって取り扱われている。
訳抜け防止モード: 人工知能や理論計算機科学のようないくつかのトピック。 ほとんどがacaです-
0.65
20MAG - https://academic.mic rosoft.com/ 21Dimensions - https://www.dimensio ns.ai/ 22CSO - http://cso.kmi.open. ac.uk/ 23GRID - https://www.grid.ac/ 24INDUSO - http://aida.kmi.open .ac.uk/downloads/ind uso.ttl 20MAG - https://academic.mic rosoft.com/ 21Dimensions - https://www.dimensio ns.ai/ 22CSO - http://cso.kmi.open. uk/ 23GRID - https://www.grid.ac/ 24INDUSO - http://aida.kmi.open .uk/downloads/induso .tl 0.39
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 5 of 14 14頁5頁。 0.72
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
Figure 1: Distribution of the main topics in academia and industry. 図1: 学界と産業における主要なトピックの分布。 0.87
demic publications. demicの出版物。 0.65
Others, e g , Computer Security, ComputerHardware, andInformationRetrie val, attractastronger interest from the industry. その他、コンピュータセキュリティ、コンピュータハードウェア、インフォメーションレトリーバルなどは、業界から強い関心を集めている。 0.62
The topics which are mostly associated with patents are Computer Networks, Internet, and Computer Hardware. 主に特許に関連するトピックは、コンピュータネットワーク、インターネット、コンピュータハードウェアである。 0.64
The overall sum of percentages for a givencategoryonacert aintopicmaybemoretha n100%becauseeachdocu mentmaybeassociatedw ithmultipletopics. マルチプルトピックをともなう有意なカテゴリナケタネトピックの総割合は100%以上である。 0.45
The current version only associates the affiliation type with about 5.1M out of 21M articles and 5.6M out of the 8M patents. 現在のバージョンは、アフィリエーションタイプを、21万記事中5.1m、800万特許中5.6mにのみ関連付けている。 0.57
The missing documents that could not be typed either have affiliations that are not present on GRID, or they were not correctly mapped to the relevant GRID ids in the original data, for instance, because it was not possible to identify the institution when parsing the article. タイプできない文書には、GRIDに存在しないアフィリエイトがあるか、あるいは元のデータにある関連するGRIDIDに正しくマッピングされていないかのいずれかがあった。
訳抜け防止モード: 型付けできない欠落文書には、グリッド上に存在しないアフィリエイションがある。 あるいは、元のデータの関連するグリッドidに正しくマッピングされていない。 例えば、 論文を解析する際に機関を特定することは不可能であった。
0.64
This is an exemplary case of the incompleteness problem which ultimately affects all scholarly knowledge graphs: a field that could enable crucial analyses exists only for about 25% of the documents. これは、究極的にはすべての学術知識グラフに影響を与える不完全性問題の例である:決定的な分析を可能にする分野は、文書の約25%でしか存在しない。
訳抜け防止モード: これは、最終的にはすべての学術知識グラフに影響を与える不完全性問題の例である。 重要な分析を可能にする分野は 文書の25%しか存在しません
0.74
This pragmatic scenario motivated us to investigate the best models for link prediction that could be applied on AIDA+MAG and by extensions on other knowledge graphs that suffer from similar issues. この実践的なシナリオは、AIDA+MAGや同様の問題に苦しむ他の知識グラフの拡張によって適用できるリンク予測の最良のモデルを検討する動機となった。 0.77
AIDA, as many KGs in the scholarly domain, describes millions of documents according to a relatively small set of categories, making this task quite challenging for two main reasons. AIDAは学術領域の多くのKGと同様に、比較的小さなカテゴリのセットに従って数百万のドキュメントを記述しているため、このタスクは2つの主な理由から非常に難しい。 0.67
First, there is an abundance of N to M relations with N â M, a situation that is not well handled by the current solutions, as we will further discuss in the next section. まず、N to M と N â M の関係が豊富に存在するが、これは現在の解ではうまく扱えない状況であり、次の節でさらに議論する。 0.67
In addition, the number of items makes computationally unfeasible the adoption of embeddings with large dimensions. さらに、アイテムの数は、大きな次元の埋め込みの採用を計算的に不可能にする。 0.63
Therefore, it is critical to develop a solution that is able to both handle the N â M issue and work well with limited dimensions. したがって、N â M 問題に対処し、限られた次元でうまく動作するような解を開発することは重要である。 0.69
These considerations led to designing the novel Trans4E model presented in this paper. これらの考察は、本論文で提示された新しいTrans4Eモデルの設計につながった。 0.53
Since we also wanted to test our solution on a field with different characteristics, we included in our analysis also the Fields of Study25, which are terms from an in-house taxon- 我々はまた、異なる特性の分野におけるソリューションの試行を望んだので、また、社内分類学の用語である研究25の分野も分析対象に含めた。 0.76
25Fields of Study - https://academic.mic rosoft.com/topics/ 25Fields of Study - https://academic.mic rosoft.com/topics/ 0.52
omyusedbyMAGtoindexr esearchpapers. OmyusedbyMAGtoindexr esearchpapers 0.29
Whilewefound that the topics from CSO typically produce a better representation of the domain of Computer Science [39] and thus are more apt for the analyses that focus on this discipline, FoS has the advantage of covering all research fields. csoのトピックは一般的にコンピュータサイエンス [39] の領域をよりよく表現し、この分野に焦点をあてた分析により適していることが分かっていますが、fosはすべての研究分野をカバーするという利点を持っています。
訳抜け防止モード: CSOのトピックは一般的にコンピュータ科学の領域をより良く表現する(39) この分野に焦点を絞った分析には より適しています FoSには、すべての研究分野をカバーする利点がある。
0.79
In the context of AIDA this is particularly useful for characterizing industrial sectors and companies that are interested in Computer Science applications in other fields such as Medicine, Chemistry, Geology, and Physics. aidaの文脈では、これは特に医学、化学、地質学、物理学などの他の分野におけるコンピュータ科学の応用に興味を持つ産業部門や企業を特徴付けるのに有用である。 0.73
Furthermore, FoS is a very interesting case study for a variety of reasons. さらに、fosは様々な理由から非常に興味深いケーススタディである。 0.61
First, its purpose is the description of the knowledge in the articles rather than their objective characteristics, such as the list of authors or the venues. 第一に、その目的は、著者のリストや会場などの客観的な特徴よりも、記事における知識の記述である。 0.69
Second, it is already present in the vanilla MAG, allowing us to experiment on a well establishedKGinthiss pace. 第二に、すでにバニラMAGに存在するので、よく確立されたKGinthisspaceで実験することができます。 0.59
Finally,thequalityof thetopicsfora specific document depends on the length and style of the abstract, which is typically parsed by an online PDF file, sometimes leading to mistakes and missing content. 最後に、thequalityofthetopic sforaの特定のドキュメントは、典型的にはオンラインのpdfファイルで解析される抽象の長さとスタイルに依存する。
訳抜け防止モード: 最後に、Qualityofthetopicsfo raの特定の文書は、抽象的な長さとスタイルに依存する。 通常はオンラインPDFファイルで解析され、時に間違いやコンテンツ不足につながる。
0.77
Indeed, documents that are associated with short or incorrectly parsed abstracts are usually tagged with very few topics. 実際、短いまたは誤って解析された抽象に関連付けられた文書は通常、非常に少ないトピックでタグ付けされる。 0.66
Considering the relevant entities in the graph such as authors, venues, and references, may enable to identify the missing topics. 著者、会場、参照などのグラフ内の関連エンティティを考えると、欠落したトピックを特定できるかもしれない。 0.68
Completing the Fields of Study is critical for supporting deeper analyses of the trends of multiple disciplines. 研究分野の完成は、複数の分野の傾向をより深く分析する上で重要である。 0.77
Besides, thesameapproachmaybe adoptedtosupportthe integration of documents from other knowledge graphs that lack abstracts (e g , DBLP26, OpenCitations27). さらに、thesameapproachmaybe adoptedは、抽象性を持たない他の知識グラフ(例えば、DBLP26、OpenCitations27)からのドキュメントの統合をサポートする。
訳抜け防止モード: さらに、他の知識グラフからの文書の統合をサポートする。 抽象化がない(例: DBLP26, OpenCitations27 )。
0.70
For the sake of simplicity, in the rest of the paper we will refer to the Fields of Study from MAG in AIDA+MAG simply as topics. 単純さのため、論文の残りの部分では、AIDA+MAGにおけるMAGからの研究分野を単にトピックとして言及する。 0.82
3.2. Limitations of KGEs for Link Prediction To improve the number of documents in AIDA+MAG characterized according to their affiliation types, we tried four well-know embedding models: TransE, RotatE, ComplEx and QuatE. 3.2. リンク予測のためのKGEの限界 AIDA+MAG の文書数を改善するために、我々は4つのよく知られた埋め込みモデル(TransE, RotatE, ComplEx, QuatE)を試した。 0.70
Their performance on this KG was not particularly good, in particularly when using small embedding このKGにおけるそれらの性能は、特に小さな埋め込みの場合、特に良くなかった。 0.61
26DBLP - https://dblp.org/ 27OpenCitations - https://opencitation s.net/ 26DBLP - https://dblp.org/ 27OpenCitations - https://opencitation s.net/ 0.56
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 6 of 14 14頁6頁。 0.74
英語(論文から抽出)日本語訳スコア
vectors. A systematic analysis showed that this was due to the characteristics of the hasGRIDType relation: a N to M relation where N is large and M small, as in M = 7: ’Education’, ’Government’, ’Company’, ’Healthcare’, ’Facility’,’Nonprofit’, ’Other’. ベクターだ m = 7: education’, ’government’, ’company’, ’healthcare’, ’facility’, ‘nonprofit’, ’other’のように、n が大小である n 対 m の関係である。
訳抜け防止モード: ベクターだ 系統解析の結果, ハスグリッド型関係の特徴から, n が大小かつ m が小さい n と m の関係が示唆された。 m = 7 : 教育', 政府'のように。 企業’、’ヘルスケア’、’施設’、’非営利’、’その他’。
0.62
Indeed, for any triple in the form (Ò, hasGRIDType, ), there is a large number N of Ò entities (papers) given a specific tail  (types), and a small number M of  (types) given a specific head Ò (papers). 実際、この形の任意の三重項(例えば、hasGRIDType, s)に対して、特定の尾 (types) を与えられた s 個の実体 (papers) と、特定の頭部 (papers) を与えられた s (types) の小さな数 M が存在する。 0.63
The same applies for the triples with the hasTopic relation that associates articles with topics. 同じことが、記事とトピックを関連付けるhasTopic関係のトリプルにも当てはまる。 0.62
The TransE model has some issues when handling these kindsofrelations. transeモデルにはこのような関係を扱う際にいくつかの問題がある。 0.51
LetusconsiderNentiti es Ò(papers)typed as ‘Education’ (Ò, hasGRIDType, Education). letusconsidernentiti es , (papers)typed as 'education' (\, hasgridtype, education) と表記される。 0.77
According to the TransE formulation 1 (see Equation 1), this case can be formalized as: TransE の定式化 1 (方程式1) によれば、このケースは次のように形式化できる。 0.67
Link Prediction of Scholarly Knowledge Graphs 4. 学術知識グラフのリンク予測4。 0.71
Methodology 4.1. The Trans4E Model Trans4E is a novel KGE model designed to effectively handle KGs which include N to M relations with NâM. メソッド4.1。 Trans4E Model Trans4Eは、N to MとNâMの関係を含むKGを効果的に扱うために設計された新しいKGEモデルである。
訳抜け防止モード: メソッド4.1。 Trans4E Model Trans4Eは新しいKGEモデルである N〜MとNâMの関係を含むKGを効果的に処理する。
0.68
In this section, we show that the capacity of this model for a given relation (e g , hasGRIDType, hasTopic) and the corresponding tail entity (e g , type or topic) is 8, which allows to generate a distinct vector for each entity (e g , a specific paper) even when using small embedding dimensions. この節では、与えられた関係(例えば、hasgridtype、hastopic)と対応する末尾実体(例えば、タイプまたはトピック)に対するこのモデルの容量が 8 であることを示す。
訳抜け防止モード: この節では、与えられた関係(例えば、hasGRIDType,hasTopic )に対するこのモデルの能力を示す。 対応するテールエンティティ (eg, type, topic ) は 8 である。 これにより各エンティティ(eg)ごとに別個のベクトルを生成することができる。 特定の紙) 小さな埋め込み次元であっても。
0.75
Hereweintroducetheco reformulationofthesc orefunction of Trans4E. Trans4Eの核機能解析 0.42
Trans4E maps the entities of the graph via relations in Quaternion vector space Ò. Trans4E はグラフの実体を四元ベクトル空間における関係を通して写像する。 0.65
Concretely, given a triple of the form (Ò, , ), our model follows the following steps: (a) The head entity vector ( ࢠ Ò) is rotated by  degrees in quaternion space i.e. 具体的には、三重項の形式が与えられたとき、このモデルは次のステップに従う: (a) 主実体ベクトル (a) は四元空間 i.e において次数で回転する。 0.59
 =  ࣹ .  =  ࣹ . 0.85
ࣹ is an element-wise Hamilton product between two quaternion vectors. 2つの四元ベクトルの間の要素ワイドハミルトン積である。 0.55
(b) The rotated head i.e. (b)回転した頭部。 0.72
 embedding vector  to get  =  + . > 埋め込みベクトル ^ を . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.13
(c) Thetranslatedheademb eddingvectorshouldme etthe tail embedding vector i.e. (c)尾部埋め込みベクトルi。 0.50
 ࣈ Ò ࣹ  for a positive  ࢠ Ò. 正の値として、正の値を表す。 0.30
However, there is a possample (Ò, , ). 但し、ポッサンプル(英:possample)は、ポッサンプル(英:possample)である。 0.24
sibility that the transformed vector of the head is not exactly meeting the tail. 頭部の変形ベクトルが尾と正確に一致していない可能性。 0.69
In order to solve this problem, we could use Ò = [Ò1, … , Ò] ࢠ Ò, which is a mapping regularizer. この問題を解くために、写像正規化子(英語版)( mapping regularizer) である (1, ..., , ) ) を使うことができる。
訳抜け防止モード: この問題を解くために、 s = [, 1, ] を用いることができた。 写像正規化子 (map mapping regularizer) である。
0.68
Followingthementione dsteps, wedefinethescorefunc- 後続, wedefinethescorefunc - 0.80
is translated by the relation 関係によって翻訳され 0.76
(7) tion as: (7) tion as: 0.85
    0.85
1 +  = , 2 +  = ,   +  = . 1 +  = , 2 +  = ,   +  = . 0.94
Since the relation  is always hasGRIDType and the tail  always Education, the formulation of the model enforces to have 1 = 2 = … =  for N number of papers. 関係は、常にhasGRIDType であり、尾部は、常に教育であるので、モデルの定式化は、N 個の論文に対して >1 = >2 = ... = > を持つように強制する。 0.60
This is an issue since the embedding vectors of all the entities appearingintheheadwi llbeverysimilar. これは、すべてのエンティティの埋め込みベクトルがheadwillbeveryに類似しているため、問題である。 0.54
Consequently, the model may be unable to distinguish among them, resulting in poor performance. その結果、モデルは両者を区別できない可能性があり、結果として性能は低下する。 0.66
Therefore, the TransE model is more suitable for N to M relations in which N and M are both small. したがって、TransEモデルは、N と M がともに小さい N と M の関係により適している。 0.84
RotatE suffers from the same issue. RotatEは同じ問題を抱えている。 0.80
According to the RotatE formulation, we have: RotatE の定式化によると、 0.44
1 = , 2 = ,   = , 1 = , 2 = ,   = , 0.92
 = 1, … , .  = 1, … , . 0.85
(8) This shows that in each element of the embedding vector (indexed as ), there is only one option for embeddings for any head for a given tail. (8) このことは、埋め込みベクトルの各元において(接頭辞として)与えられた尾に対する任意の頭部に対する埋め込みの選択肢が1つしかないことを示している。
訳抜け防止モード: (8) これは、埋め込みベクトルの各要素(インデックス付き)で示される。 与えられた尾に対して任意の頭部への埋め込みの選択肢は一つしかない。
0.79
Therefore, in the case of the hasGRIDType relation (also for hasTopic), RotatE lacks the capacity to distinguish well among the research papers in the head (Ò). したがって、ハスグリッド型関係(ハストピート関係も同様)の場合、ローテーションは頭にある研究論文の中でよく区別する能力が欠けている。
訳抜け防止モード: したがって、hasGRIDType関係(hasTopicも)の場合、 RotatEはキャパシティを欠いている 研究論文のうち, 研究論文と研究論文とをよく区別すること。
0.63
In conclusion, a larger vector space appears to be crucial to properly represent these kinds of relations and perform high-quality link prediction on AIDA and similar scholarly knowledge graphs. 結論として、これらの関係を適切に表現し、AIDAや類似の学術知識グラフ上で高品質なリンク予測を行うためには、より大きなベクトル空間が不可欠であると考えられる。
訳抜け防止モード: 結論として より大きなベクトル空間は このような関係を適切に表現する そして、aidaと類似の学術知識グラフで高品質リンク予測を行う。
0.73
Other models, such as ComplEx and QuatE, suffer from two major issues when applied on KG with high number of entities: a) since they use 1 to  negative sampling [23] (where  is the total number of entities in a KG), in the case of N to M relations where N â M, a substantial portion of the samples are positive but they are used as negative samples; b) high computation costs also resulted from using  negative sampling. 複素数や量子数のような他のモデルでは、多くの実体を持つ kg に適用されると、2つの大きな問題が発生する: a) 負のサンプリング [23] を 1 対 で使うので、n â m の場合、サンプルのかなりの部分が正であるが負のサンプルとして使われる; b) 高い計算コストは、負のサンプリングを使用することから生じる。
訳抜け防止モード: ComplEx(英語版)やQuatE(英語版)のような他のモデルでは、1 から 1 への負のサンプリング [ 23 ] (ここでは23 ) を使用するため、多数のエンティティを持つ KG に適用すると2つの大きな問題に直面する。 は KG の実体の総数である N to M 関係の場合、 N â M サンプルのかなりの部分は正であるが、負のサンプルとして使用される。 b) 陰性サンプリングによる計算コストも高い。
0.79
(, , ) = −ߠ − Ò ࣹ ߠ. (, , ) = −ߠ − Ò ࣹ ߠ. 0.96
(9) Thescorefunctionretu rnsalowvalueifthetri pleisfalse i.e. (9)Thescorefunctionr eturnsalowvalueifthe tripleisfalse i。 0.24
 ࣔ Ò ࣹ  and returns high value (close to zero) if the triple is true i.e. もし三重項が真であるなら、その値 (0 に近づき) を返却する。 0.53
 ࣈ Ò ࣹ .  ࣈ Ò ࣹ . 0.97
In this way, we measure the plausibility of each triple (Ò, , ). このようにして、各三重項の可算性を測定する。 0.45
In addition, two regularized versions of the Trans4E model are also made available. さらにtrans4eモデルの2つの正規化バージョンも利用可能である。 0.81
The first is Trans4EReg1, whichistheregularize dversionofTrans4Ewhe rearelationspecific head rotation and the tail mapping regularizer are used. 1つ目はTrans4EReg1で、Trans4Ewherearelatio n特有の頭部回転とテールマッピングレギュレータが使用される。 0.57
The second is Trans4EReg2, which is a regularized version of Trans4E with a relation-specific rotation on the tailside(inadditiont otherelation-specificheadrotationand the tail mapping regularizer). 第二に Trans4EReg2 は Trans4E の正規化バージョンであり、尾側(inadditiontotherela tion-specificheadrot ation and the tail mapping regularizer)に関係性特異的な回転を持つ。 0.72
4.2. Link Prediction on N to M Relations Here we show that Trans4E provides a higher capacity with fewer limitations than other models. 4.2. N から M へのリンク予測 ここでは、Trans4E が他のモデルよりも少ない制限で高いキャパシティを提供することを示す。
訳抜け防止モード: 4.2. n と m の関係のリンク予測は trans4eは他のモデルよりも少ない制限で高い容量を提供する。
0.73
Given a relation  (e g , hasGRIDType) and a tail  (e g , ’Education’), the following constraints are applied for each of the resulting triples: 関係式:(e g , hasGRIDType)と尾式:(e g , 'Education')が与えられると、それぞれの三重項に以下の制約が適用される。 0.70
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 7 of 14 14ページ7頁。 0.77
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
    0.85
 1 +  = Ò1 ࣹ , 2 +  = Ò2 ࣹ ,   +  = Ò ࣹ ,  1 +  = Ò1 ࣹ , 2 +  = Ò2 ࣹ ,   +  = Ò ࣹ , 0.83
(10)  = 1, … , . (10)  = 1, … , . 0.85
We can rewrite the Hamilton product as 4-dimensional ハミルトン積を 4次元に書き換えることができる 0.68
matrix-vector product:  =  ࣹ  = 行列ベクトル積: t = t = t = t = t 0.58
− − −     −   − −  − − −     −   − −  0.82
−   −   0.94
    0.85
Ò Ò Ò Ò Ò Ò Ò Ò 0.65
 = êÒ.  = êÒ. 0.74
(11) Without loss of generality, we assume that the embedis a real ding of the relation translation  is zero and Ò value. (11) 一般性の欠如がなければ、埋め込みが関係変換の実際の符号化であるような関係は 0 で、値 は 0 であると仮定する。
訳抜け防止モード: (11) 一般性を失うことなく 組込み a は関係変換 s の真の ding であり、その値は 0 で s の値である。
0.75
In this way, we can write the above system of equations in the following form: このようにして、上記の方程式体系を次のように書くことができる。 0.76
êÒ1 = Ò1  êÒ2 = Ò2  êÒ1 = Ò êÒ1 = Ò1  êÒ2 = Ò2  êÒ1 = Ò 0.43
, (12)  = 1, … , . , (12)  = 1, … , . 0.85
they will be different. 彼らは違うでしょう。 0.59
. If Ò = Ò . ^ t = t である。 0.60
Note that the matrix ê is 4 × 4 and has 4 distinct eigenvalues/eigenvec tors. 行列 ê は 4 × 4 で、4つの異なる固有値/固有ベクトルを持つ。 0.71
Therefore, we can write êÒ = , then the th dimenÒ = Ò Ò sion of the head and tail vectors will be same, otherwise, Therefore, we will have 4 (number of distinct eigenvectors) × 2 = 8 various options in each dimension to be assigned to the head entity vector. したがって、 ê を書けば、頭部と尾のベクトルの次のディメンシュ = σ は同一であり、そうでなければ 4 (異なる固有ベクトルの数) × 2 = 8 個の様々なオプションを各次元において、頭部の実体ベクトルに割り当てることができる。 0.75
The multiplication by 2 is due to the two possible cases, one for the equality of the head and the tail and the other for their inequality. 2 の乗法には2つの可能な場合があり、1つは頭と尾の等式、もう1つは不等式である。
訳抜け防止モード: 2の乗算は2つの可能な場合による。 1つは頭と尾の平等、もう1つは不等式である。
0.68
Because we use  dimensional vectors, we have 8 − 1 possibledistinctvect orstobeassignedtothe entitiesappearing in the head (e g , articles in AIDA). 次元ベクトルが用いられるので、頭部に出現する8対 − 1 の可能性distinctvectorstobea ssignedtotheentities (例えば、aida の記事)がある。 0.49
As a result, the capacity of the model becomes 8 − 1, which provides a larger space than the TransE and RotatE models. その結果、モデルのキャパシティは、TransE モデルと RotatE モデルよりも広い空間を提供する8-1となる。 0.71
In Section 5, we will show the advantages of this solution by comparing it against alternative models. 第5節では、代替モデルと比較することで、このソリューションの利点を示します。 0.74
We compared Trans4E against four alternative embed- Trans4Eを4つの代替埋め込みと比較した。 0.48
5. Evaluation ding models: TransE, RotatE, ComplEX, and QuatE. 5. 評価ディングモデル:TransE、RotatE、ComplEX、QuatE。 0.70
5.1. Evaluation Datasets We ran the experiments on a portion of the knowledge graph AIDA+MAG including 68,906 entities and 180K triples. 5.1. 評価データセット AIDA+MAGには68,906個のエンティティと180K個のトリプルが含まれている。 0.69
Specifically, we considered the following entities: publication IDs, authors, affiliation organizations, topics, 具体的には,出版ID,著作者,関連団体,話題などについて考察した。 0.58
publication types, conference editions, conference series, journals, years, countries, and references. 出版物の種類、会議版、会議シリーズ、雑誌、年月、国、参照。 0.61
In this subset, the hasGRIDType relation includes about 5k entities (research papers) in the head position and 7 entities as tail (‘Education’, ‘Company’, ‘Government’, ‘Healthcare’, ‘Nonprofit’, ‘Facility’, and ‘Other’). この部分集合において、hasgridtypeの関係は、ヘッドポジションに約5kのエンティティ(研究論文)、テールとして7つのエンティティ(‘education’、‘company’、‘government’、‘healthcare’、‘nonprofit’、‘facility’、‘other’)を含む。 0.71
Regarding the hasTopic relation, the highest number of research articles associated to a topic is 4,659, while the highest number of topics associated to research articles is only 13. トピックに関する調査記事の件数が最も多いのは4,659件であり,研究記事に関する話題の件数は13件である。 0.69
We split the datasets into train (80%), test (10%), and validation (10%) sets. データセットを列車(80%)、テスト(10%)、検証(10%)に分割しました。 0.63
Additionally, we evaluated the performanceofourmode lonfourbenchmarks: FB15K(14,951 entitiesand1,345rela tions),FB15k-237(14, 451entitiesand 237 relations), WN18 (40,943 entities and 18 relations), and WN18RR (40,943 entities and 13 relations). さらに,FB15K(14,951 entityand1,345relati ons),FB15k-237(14,45 1entitiesand237 relations),WN18(40,9 43 entity and 18 relations),WN18RR(40 ,943 entity and 13 relations)の評価を行った。 0.67
5.2. Evaluation Criteria In this section we discuss the criteria that we considered for the evaluation. 5.2. 本節の評価基準では、評価のために検討した基準について述べる。 0.72
Performance Metrics. パフォーマンス指標。 0.65
The standard evaluating metrics for the performance of KGEs are: Mean Rank (MR), Mean Reciprocal Rank (MRR) and Hits@k (k=1, 3, 10) [52]. KGEのパフォーマンスを評価する基準は、平均ランク(MR)、平均相互ランク(MRR)、Hits@k(k=1, 3, 10)[52]である。
訳抜け防止モード: KGEの性能評価基準は平均ランク(MR)である。 平均相互ランク (MRR) と Hits@k (k=1, 3) 10 ) [ 52 ] .
0.68
MR is the average rank of correct triples in the test set. MRはテストセットにおける正しい三重項の平均ランクである。 0.83
In order to compute it, we generate two sets of triples, Ò = (Ò, , ?) それを計算するために、我々は2つの三重対、つまり、 s = ( s, s, ?) を生成する。
訳抜け防止モード: これを計算するために、2組のトリプルを生成します。 Ò = ( Ò ,  , ? )
0.78
and  = (?, , ), by corrupting each test triple (Ò, , ). そして、テストの各々のトリプル(sriple, s, s, t, t, t, t, t, t)を破損させる。 0.60
After this step, the scores of all the triples in Ò,  are computed and the triples are sorted. このステップの後、全ての三重項のスコアは , , , , で計算され、三重項はソートされる。 0.69
The rank (Ò, ) of the original triple (i.e. 元の三つ組のランク(i.e.)。 0.62
(Ò, , )) is then computed in both sets Ò, and . ( , , , , )) は、それぞれ , , , , , , の集合で計算される。 0.57
For any triple, Ò is the notation for the right ranks and  for the left ranks. 任意の三つ目については、右の階の表記であり、左の階の表記である。 0.52
The rank of the example triple . 例のランクは3倍である。 0.71
If we assume  of (Ò, , ) is computed as  = Ò+ to be the rank of the −th triple in the test set obtained by a KGE model, then the MR and the MRR are obtained as follows: kge モデルによって得られるテスト集合において、(s, s, s, s) の s が s = s+ と計算されていると仮定すると、mr と mrr は次のようになる。 0.51
2  =ࢣ  =ࢣ 2  =ࢣ  =ࢣ 0.85
 , 1  , 1 0.85
.   For the evaluation on hasGRIDType and hasTopic relations, we only corrupted the tail of the relations and replaced it with all the entities in the KG. .   hasGRIDTypeとhasTopicの関係性を評価するために、我々は関係の尾を破損させ、KGのすべてのエンティティに置き換えた。 0.79
The @, for k = 1, 3, 10 ..., is one of the standard link prediction measurements. k = 1, 3, 10 ... に対して s@ は標準リンク予測測定値の1つである。 0.81
By considering the percentage of the triples for which  is equal or smaller than k, wecomputedthe @. s が k と等しいか小さい三重項の比率を考えることで、wecomputed the s@ が成り立つ。 0.60
MR,theaverageMRR,Hit s@1, Hits@3, and Hits@10 are reported in Tables 2-6. MR、平均MRR、Hits@1、Hits@3、Hits@10はTables 2-6で報告されている。 0.73
Dimension and KG Scale. 次元とKGスケール。 0.64
Although the performance measures of a machine learning model are important criteria for evaluation, the dimension of the embedding vectors is specifically important for KGE models, which are supposed to be used in the real-world large-scale KGs. 機械学習モデルの性能測定は評価のための重要な基準であるが、組み込みベクトルの次元は、実世界の大規模KGで使用されると考えられるKGEモデルにとって特に重要である。 0.90
Indeed, an embedding with very large dimensions may be unfeasible in most practical settings. 実際、非常に大きな次元の埋め込みは、ほとんどの実用的な設定では不可能かもしれない。 0.57
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 8 of 14 14ページ8ページ。 0.76
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
Table 2 Performance of KGEs on AIDA for Dimension 5 表2 次元5のAIDAにおけるKGEの性能 0.92
Model Type TransE RotatE QuatE ComplEx Trans4EReg1 Trans4EReg2 Trans4E モデルタイプ TransE RotatE QuatE ComplEx Trans4EReg1 Trans4EReg2 Trans4E 0.70
MR 3785 4749 4862 3726 3007 2047 2908 MR 3785 4749 4862 3726 3007 2047 2908 0.85
hasTopic MRR 0.031 0.036 0.066 0.044 0.403 0.401 0.089 hasTopic MRR 0.031 0.036 0.066 0.044 0.403 0.401 0.089 0.49
Hits@1 0.006 0.000 0.021 0.003 0.325 0.325 0.030 Hits@1 0.006 0.000 0.021 0.003 0.325 0.325 0.030 0.52
Hits@3 0.027 0.001 0.066 0.042 0.450 0.445 0.083 Hits@3 0.027 0.001 0.066 0.042 0.450 0.445 0.083 0.52
Hits@10 0.071 0.008 0.151 0.111 0.531 0.528 0.211 Hits@10 0.071 0.008 0.151 0.111 0.531 0.528 0.211 0.52
Table 3 Performance of KGEs on AIDA for Dimension 50 第3表 次元50のAIDAにおけるKGEの性能 0.85
Model Type TransE RotatE QuatE ComplEx Trans4EReg1 Trans4EReg2 Trans4E モデルタイプ TransE RotatE QuatE ComplEx Trans4EReg1 Trans4EReg2 Trans4E 0.70
MR 3903 3890 1693 7279 2424 3250 3842 MR 3903 3890 1693 7279 2424 3250 3842 0.85
hasTopic MRR 0.135 0.155 0.093 0.081 0.379 0.394 0.158 HasTopic MRR 0.135 0.155 0.093 0.081 0.379 0.394 0.158 0.47
Hits@1 0.043 0.057 0.057 0.036 0.300 0.327 0.053 Hits@1 0.043 0.057 0.057 0.036 0.300 0.327 0.053 0.52
Hits@3 0.126 0.144 0.106 0.093 0.416 0.429 0.154 Hits@3 0.126 0.144 0.106 0.093 0.416 0.429 0.154 0.52
Hits@10 0.355 0.411 0.165 0.167 0.515 0.507 0.416 Hits@10 0.355 0.411 0.165 0.167 0.515 0.507 0.416 0.52
hasGRIDType MR MRR 0.658 6 0.472 38 159 0.252 0.429 6 0.941 1 0.956 1 1 0.900 hasGRIDType MR MRR 0.658 6 0.472 38 159 0.252 0.429 6 0.941 1 0.956 1 1 0.900 0.66
Hits@1 0.500 0.000 0.166 0.001 0.915 0.928 0.834 Hits@1 0.500 0.000 0.166 0.001 0.915 0.928 0.834 0.52
Hits@3 0.771 0.000 0.271 0.838 0.978 0.985 0.965 Hits@3 0.771 0.000 0.271 0.838 0.978 0.985 0.965 0.52
Hits@10 0.970 0.001 0.431 0.931 0.995 0.988 0.998 Hits@10 0.970 0.001 0.431 0.931 0.995 0.988 0.998 0.52
hasGRIDType MRR MR 0.859 1 0.891 1 1718 0.096 0.896 700 0.907 117 0.959 1 1 0.866 hasGRIDType MRR MR 0.859 1 0.891 1 1718 0.096 0.896 700 0.907 117 0.959 1 1 0.866 0.66
Hits@1 0.769 0.823 0.062 0.869 0.856 0.928 0.790 Hits@1 0.769 0.823 0.062 0.869 0.856 0.928 0.790 0.52
Hits@3 0.944 0.970 0.116 0.919 0.947 0.990 0.931 Hits@3 0.944 0.970 0.116 0.919 0.947 0.990 0.931 0.52
Hits@10 1.000 1.000 0.148 0.939 0.991 1.000 1.000 Hits@10 1.000 1.000 0.148 0.939 0.991 1.000 1.000 0.52
Therefore, we compared the performances of our model againststate-of-thea rtmodelsinaverylowdi mensionalembedding. そこで,本モデルの性能を対トハートモデルsinaverylowdimension alembeddingと比較した。 0.47
This was done to simulate a real-world application of KGEs on large scale KGs. これは大規模なKG上でのKGEの実際の応用をシミュレートするために行われた。 0.59
Indeed, models which obtain satisfactory performances on a portion of a graph using a small vector size should also perform well when adopting a higher dimension on a larger portion of the same graph [30, 15]. 実際、同じグラフのより大きな部分に対して高次元を採用する際には、小さなベクトルサイズを用いてグラフの一部で満足な性能を得るモデルも良好に動作するはずである[30,15]。 0.79
5.3. Hyperparameter Setting is PyTorch28. 5.3. ハイパーパラメータ設定はPyTorch28です。 0.66
In the experiments, we reshuffled the training set in each epoch, and generated 16 mini batches on the reshuffled samples. 実験では,各エポックのトレーニングセットをリシャッフルし,リシャッフルしたサンプルに対して16個のミニバッチを生成した。 0.72
To determine the performances of our model in high and low dimensions, the embedding dimension () was set to {5, 50, 500} in the experiments. 高次元および低次元でのモデルの性能を決定するため,実験では,埋め込み次元(a)を {5, 50, 500} に設定した。 0.77
The batch size () is considered as {256, 512}, the fixed バッチサイズは {256, 512} と見なされ、固定される 0.61
The development environment of our model 28PyTorch - https://pytorch.org/ モデルの開発環境 28PyTorch - https://pytorch.org/ 0.55
margin  is {2, 3, 4, 5, 10, 15, 20, 30} and learning rate as {0.001, 0.01, 0.05, 0.1} with a negative sample of 10. マージンは {2, 3, 4, 5, 10, 20, 20, 30} であり、学習率は {0.001, 0.01, 0.05, 0.1} であり、負のサンプルは 10 である。 0.80
2 regularization coefficient is {0.000005, 0.0000005} for the models QuatE, Trans4EReg1, and Trans4EReg2. 2 の正規化係数は、QuatE, Trans4EReg1, Trans4EReg2 のモデルに対して {0.000005, 0.0000005} である。 0.55
The best hyperparameter combination for Trans4E and Trans4EReg2 is  = 256,  = 0.1,  = 20 and for Trans4EReg1 is  = 256,  = 0.001,  = 20, and  = 500 for all the models. trans4e と trans4ereg2 の最も良いハイパーパラメータの組み合わせは 256 と 0.1 と 20 であり、trans4ereg1 は 256 と 256 である。
訳抜け防止モード: Trans4E と Trans4EReg2 の最適ハイパーパラメータの組み合わせは 256 である。 なお、Trans4EReg1 の場合は 256 である。 すべてのモデルに対して t = 0001, t = 20, t = 500 となる。
0.84
For the regularized versions  =0.000005. 正規化バージョンは s =0.000005 である。 0.58
5.4. Results and Discussions Inthissection, wepresenttheresultso fourexperiments. 5.4. 実験結果と考察 0.51
Specifically, Section 5.4.1 reports the results of the evaluation regarding the graph completion on AIDA+MAG. 具体的には、第5.4.1節では、AIDA+MAGのグラフ補完に関する評価結果を報告している。 0.43
Section 5.4.2 compares the performance of Trans4E and several alternatives on a set of four standard benchmarks (FB15k, FB15k-237, WN18, andWN18RR). 第5.4.2節は、4つの標準ベンチマーク(fb15k, fb15k-237, wn18, andwn18rr)におけるtrans4eといくつかの代替品のパフォーマンスを比較している。 0.47
Section 5.4.3 investigates the representation of the research topics and shows a study of the distribution of their embedding vectors. 第5.4.3節は、研究トピックの表現を調査し、それらの埋め込みベクトルの分布についての研究を示す。 0.65
Table 4 Performance of KGEs on AIDA for dimension 500. 表 4 次元500のAIDA上のKGEの性能 0.71
Model Type TransE RotatE QuatE ComplEx Trans4EReg1 Trans4EReg2 Trans4E モデルタイプ TransE RotatE QuatE ComplEx Trans4EReg1 Trans4EReg2 Trans4E 0.70
MR 3982 4407 1353 5855 2040 1942 3904 MR 3982 4407 1353 5855 2040 1942 3904 0.85
hasTopic MRR 0.400 0.433 0.426 0.099 0.402 0.424 0.426 hasTopic MRR 0.400 0.433 0.426 0.099 0.402 0.424 0.426 0.49
Hits@1 0.294 0.332 0.341 0.077 0.295 0.325 0.318 Hits@1 0.294 0.332 0.341 0.077 0.295 0.325 0.318 0.52
Hits@3 0.462 0.492 0.472 0.109 0.466 0.482 0.492 Hits@3 0.462 0.492 0.472 0.109 0.466 0.482 0.492 0.52
Hits@10 0.592 0.622 0.581 0.129 0.604 0.602 0.628 Hits@10 0.592 0.622 0.581 0.129 0.604 0.602 0.628 0.52
hasGRIDType MRR MR 0.968 1 0.953 1 1 0.957 0.566 1566 0.910 233 0.955 34 1 0.968 hasGRIDType MRR MR 0.968 1 0.953 1 1 0.957 0.566 1566 0.910 233 0.955 34 1 0.968 0.66
Hits@1 0.944 0.933 0.928 0.531 0.882 0.931 0.944 Hits@1 0.944 0.933 0.928 0.531 0.882 0.931 0.944 0.52
Hits@3 0.990 0.975 0.983 0.596 0.937 0.978 0.995 Hits@3 0.990 0.975 0.983 0.596 0.937 0.978 0.995 0.52
Hits@10 1.000 0.996 0.998 0.609 0.944 0.990 0.998 Hits@10 1.000 0.996 0.998 0.609 0.944 0.990 0.998 0.52
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 9 of 14 14頁9頁。 0.73
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
Figure 2: hasTopic for dimension 5,50 and 500 図2:5,50および500次元のハストピー 0.80
Figure 3: hasGRIDType for dimension 5,50 and 500 図3:5,50,500のhasGRIDType 0.79
5.4.1. Knowledge Graph Completion in AIDA+MAG In this section we evaluate the performance of Trans4E versus alternative methods in completing the two relations hasGRIDType and hasTopic in AIDA+MAG. 5.4.1. 本稿では,AIDA+MAGにおけるhasGRIDTypeとhasTopicの2つの関係を完成させる際のTrans4Eと代替手法の性能を評価する。 0.61
Specifically,wecomparedTran s4EwithTransE,RotatE , QuatE and ComplEx. 具体的にはTrans4EwithTransE、RotatE、QuatE、ComplExを比較。 0.57
We also included Trans4EReg1 and Trans4EReg2, the two regularized versions previously defined in Section 4.1. 以前はセクション4.1で定義されていた2つの正規化バージョンであるTrans4EReg1とTrans4EReg2も含んでいた。 0.46
Table 2 reports the performances of the seven models for dimension 5. 表2は、次元5の7つのモデルのパフォーマンスを報告します。 0.72
Trans4EReg1 clearly outperforms all the other models for the hasTopic relations. Trans4EReg1は、hasTopic関係の他のモデルよりも明らかに優れています。 0.48
Trans4EReg2 obtains the second-best performance. Trans4EReg2は2番目に高い性能を得る。 0.45
For instance, when considering the hasTopic relation, Trans4EReg1 and Trans4EReg2 yield 32.5% in Hits@1 while all the other solutions obtain less than 3%. 例えば、hasTopic関係を考えると、Trans4EReg1 と Trans4EReg2 は Hits@1 で 32.5% を得るが、他の全ての解は 3% 未満である。 0.62
For the hasGRIDType relations Trans4EReg2 outperforms all the others with a 92.8% in Hits@1. hasGRIDType 関係について Trans4EReg2 は Hits@1 で 92.8% で他より優れています。 0.64
Moreover, Trans4EReg1, yields 91.5% in Hits@1 and Trans4E 83.4%, while the best of the other models is TransE with 50.0%. さらに Trans4EReg1 は Hits@1 と Trans4E の 83.4% で91.5% を獲得し、他のモデルの最高は TransE の 50.0% である。 0.71
RotatE performed surprisingly poorly on both the hasTopic and hasGRIDType relations, yielding 0% in Hits@1. RotatEは、hasTopicとhasGRIDTypeの関係で驚くほど低調で、hits@1.0%だった。 0.69
It should be noted that during testing, for a test triple (, Ò , ), we replaced the tail  with all the entities in the graph and ranked the actual ones against the corrupted triples. テスト中、テスト三重項(英語版)において、我々は尾部をグラフのすべての実体に置き換え、実際の三重項に対してランク付けした点に注意する必要がある。
訳抜け防止モード: 注意すべきは、テスト中のテストトリプル(以下、以下)は、テストトリプルである。 我々は尾尾をグラフのすべての実体に置き換えた。 腐敗した三つ組に対して 実際の順位を付けました
0.66
As a result, RotatE (in dimension 5) does not rank any type entity even among the top 10 occurrences. その結果、RotatE(次元5)は、トップ10の事象の中でもいかなるタイプエンティティもランク付けしない。 0.67
This means that non-type entities in the corruption process are ranked higher than the typed entities. これは、腐敗プロセスにおける非型エンティティは、型付きエンティティよりも上位にランクされることを意味する。 0.48
This is related to the limited solution space of the RotatE model, which is also discussed in [31]. これは[31]でも議論されているRotatEモデルの限定解空間と関連している。 0.72
The overall accuracy for hasGRIDType is typically higher than hasTopic. hasGRIDTypeの全体的な精度は、通常hasTopicよりも高い。 0.80
For instance, Trans4EReg1 yields a Hits@10 of 99.5% for hasGRIDType and 53.1% for 例えば、Trans4EReg1 は hasGRIDType で 99.5% の Hits@10 と 53.1% を得る。 0.73
hasTopic. This is mainly due to the fact that the number of entities to be considered for hasTopic is much higher than that for hasGRIDType. HasTopic これは主に、hasTopicのために考慮すべきエンティティの数がhasGRIDTypeよりもはるかに多いためである。 0.50
Overall, Trans4EReg1 seems to be the most suitable model for addressing large-scale KGs, where increasing the dimension of the model is too costly in computational terms. 全体として、trans4ereg1は大規模なkgsに対処するのに最も適したモデルであり、計算用語ではモデルの次元を増加させるにはコストがかかりすぎる。 0.58
Table 3 reports the performances of the models using dimensions 50. 表3は、50次元を用いたモデルの性能を報告します。 0.69
Trans4EReg1 and Trans4EReg2 outperforms all the models with regards to the hasTopic by a considerable margin (up to 10% improvement on Hits@10). Trans4EReg1とTrans4EReg2は、Hits@10で10%改善した)HasTopicに関して、すべてのモデルを上回っている。 0.66
When considering hasGRIDType, Trans4EReg2 obtains the best performances in all metrics, folowed by Trans4EReg1 and RotatE. hasGRIDTypeを考慮すると、Trans4EReg2は、Trans4EReg1とRotatEによって、すべてのメトリクスで最高のパフォーマンスを得る。 0.51
Due to the overfitting, the performance of Trans4EReg1 and Trans4EReg2 decreases as the dimension increases from 5 to 50. オーバーフィッティングにより、Trans4EReg1とTrans4EReg2の性能は、寸法が5から50に増加するにつれて低下する。 0.56
In fact, Trans4EReg1 and Trans4EReg2 with dimension 5 still outperforms all the models with dimension 50 in most of the metrics. 実際、次元5のTrans4EReg1とTrans4EReg2は、ほとんどのメトリクスにおいて、次元50のすべてのモデルを上回っている。 0.58
Table4reportstheexpe rimentswithadimensio nof500. 表4:theexperimentswith adimensionof500 0.23
For hasGRIDType, Trans4E and TransE are comparable and obtain the best performances. hasGRIDTypeの場合、Trans4EとTransEは同等であり、最高のパフォーマンスが得られる。 0.61
When considering hasTopic, QuatE,RotatE,andTran s4Eperformsimilarlyw ell. HasTopicを考えるとき、QuatE、RotatE、Trans4Eperformsimila rlywell。 0.72
Specifically, QuatEyields thebestperformance inHits@1(34.1%), while Trans4E and RotatE perform best in Hits@3 (49.2%), and Trans4E obtains the highest Hits@10 (62.8%). 具体的には、quateyields the best performance inhits@1(34.1%)、trans4eとrotionはhis@3(49.2%)、trans4eは最も高いhits@10(62.8%)を得る。
訳抜け防止モード: 具体的には、QuatEyields thebest Performance inHits@1(34.1 % ) Trans4E と RotatE は Hits@3 (49.2 % ) で最高である。 Trans4EはHits@10(62.8 %)の最高値を得る。
0.68
Figure 2 and 3 summarize the performances of all the models for dimension 5, 50, and 500. 図2と3は、次元5, 50, 500のすべてのモデルのパフォーマンスをまとめたものです。 0.82
Trans4EReg1 significantly outperforms all the models when using low dimensions and performs well also in high dimensions. Trans4EReg1は低次元を使用する場合、すべてのモデルよりも大幅に優れ、高次元でもよく機能する。 0.50
5.4.2. Link Prediction on Benchmark Datasets We evaluated the performances of the Trans4E model against the competitors on a set of standard benchmark 5.4.2. ベンチマークデータセットにおけるリンク予測 標準ベンチマークを用いたtrans4eモデルの性能評価 0.59
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 10 of 14 14頁10頁。 0.73
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
Table 5 Performance of KGEs on FB15K and WN18. 表5 FB15KおよびWN18上のKGEの性能 0.78
FB15k MR MRR Hits@1 Hits@3 Hits@10 – 40 35 47 FB15k MR MRR Hits@1 Hits@3 Hits@10 – 40 35 47 0.72
0.749 0.884 0.881 0.892 0.749 0.884 0.881 0.892 0.45
0.578 0.830 0.805 0.834 0.578 0.830 0.805 0.834 0.45
0.463 0.797 0.742 0.767 0.463 0.797 0.742 0.767 0.45
0.297 0.746 0.658 0.681 0.297 0.746 0.658 0.681 0.45
WN18 MR MRR Hits@1 Hits@3 Hits@10 – 309 349 175 WN18 MR MRR Hits@1 Hits@3 Hits@10 – 309 349 175 0.90
0.943 0.959 0.960 0.960 0.943 0.959 0.960 0.960 0.45
0.888 0.952 0.952 0.953 0.888 0.952 0.952 0.953 0.45
0.113 0.944 0.927 0.944 0.113 0.944 0.927 0.944 0.45
0.495 0.949 0.942 0.950 0.495 0.949 0.942 0.950 0.45
Table 6 Performance of KGEs on FB15K-237 and WN18RR. 表6 FB15K-237およびWN18RR上のKGEの性能 0.65
MR MRR Hits@1 Hits@3 Hits@10 357 177 170 158 MR MRRが@1 Hits@3 Hits@10 357 177 170 158 0.83
0.294 0.338 0.282 0.332 0.294 0.338 0.282 0.332 0.45
0.465 0.533 0.501 0.527 0.465 0.533 0.501 0.527 0.45
– 0.375 0.315 0.366 – 0.375 0.315 0.366 0.53
FB15k-237 – 0.241 0.178 0.236 FB15k-237 – 0.241 0.178 0.236 0.46
WN18RR MR 3384 3340 2272 1755 WN18RR MR 3384 3340 2272 1755 0.92
MRR Hits@1 Hits@3 Hits@10 0.226 0.476 0.303 0.469 MRR Hits@1 Hits@3 Hits@10 0.226 0.476 0.303 0.469 0.77
– 0.428 0.179 0.416 – 0.428 0.179 0.416 0.53
0.501 0.571 0.530 0.577 0.501 0.571 0.530 0.577 0.45
– 0.492 0.386 0.487 – 0.492 0.386 0.487 0.53
Model Type TransE RotatE QuatE Trans4E モデルタイプ TransE RotatE QuatE Trans4E 0.82
Model Type TransE RotatE QuatE Trans4E モデルタイプ TransE RotatE QuatE Trans4E 0.82
sults are comparatively close in the case of FB15k-237 and WN18RR, where Trans4E has a better performance in MR. sults は FB15k-237 と WN18RR の場合に比較的近いが、Trans4E は MR の性能が優れている。 0.69
Overall, the results show that our model outperforms other KGE models on N to M relations with NâM and provides competitive performance on KGs with diverse relations. 以上の結果から,本モデルがN~Mの関係において他のKGEモデルよりも優れ,多様な関係を持つKG上での競合性能が得られた。 0.70
5.4.3. Efficiency of the Embeddings To further investigate the representation of research topics with Trans4E, we analysed how the embeddings discriminate articles tagged with different topics. 5.4.3. 埋め込みの効率性は,Trans4Eによる研究トピックの表現をより深く研究するために,埋め込みが異なるトピックをタグ付けした記事の識別方法を分析した。 0.57
Figure 4 shows the embeddings associated to the articles in AIDA+MAG in two dimensions. 図4は、AIDA+MAGの記事に関連する埋め込みを2次元で示す。 0.73
In order to produce it, we first selected five major topics of the machine learning venues: “fuzzy_classification”, “natural_language_pro cessing”, “competitive_learning ”, “machine learning”, and “bioinformatics”. まず,機械学習会場の5つの主要なトピックを選定した。"fuzzy_classification ","natural_language_pro cessing","competitive_learning ","machine learning","bioinformatics"である。 0.74
Then, we retrieved the embedding vectors of the papers tagged with those topics and visualized them by using T-SNE [26]. そして,これらのトピックをタグ付けした論文の埋め込みベクトルを検索し,T-SNE [26] を用いて視覚化した。 0.71
We can appreciate how papers with the same topics tend to cluster together. 同じトピックを持つ論文が集合する傾向にあることは、ありがたい。 0.60
For example, papers belonging to the “fuzzy_classification”topic(green)liewithi nthesamecluster. 例えば、“fuzzy_classification ”topic(green)に属する論文は、liewithinthesameclus terである。 0.78
Note that papers in some topics such as “bioinformatics” may be associated to other topics as well (e g a paper may be in “bioinformatics” and use “fuzzy_classification” methods). バイオインフォマティクス”のようないくつかのトピックの論文は、他のトピックにも関連している可能性がある(例えば、論文は“バイオインフォマティクス”にあり、“fuzzy_classification ”メソッドを使用しているかもしれない)。 0.54
This is why papers related to more general topics are distributed with a larger variance. そのため、より一般的な話題に関する論文が分散して配布される。 0.68
We further evaluated the ability of our model to properly distribute topics in the vector space based on their publication dates. さらに,本モデルがベクトル空間にトピックを適切に分散する能力について,その出版日に基づいて評価した。 0.67
In Figure 5, we illustrate the distribution of the learned vectors for the topics w.r.t their publishing years. 図5では、出版年数で学習したトピックに対するベクトルの分布について説明する。 0.78
This shows that topics such as “convolutional_neural _networks”, “parallel_processing”, and “speech_recognition”arecorrectlyidentifiedtobehottopics for the corresponding years. このことは,「畳み込み_neural_networks」や「パラレル_処理」,「speech_recognition」といったトピックが,対応する年ごとに正しく識別されていることを示唆している。 0.54
The topic “word_embedding” lies in the border of recent word_embedding”というトピックは、最近の国境にある 0.78
Figure 4: Distribution of the main topics in academia and industry. 図4: 学界と産業における主要なトピックの分布。 0.85
datasets with diverse relations (N to M relations where N and M are large, N and M are small, NâM and NâM). 多様な関係を持つデータセット(NとMの関係、NとMは大きい、NとMは小さい、NâMとNâM)。 0.82
Table 5 and Table 6 show the performances of the KGEmodelsonthebenchm arkdatasetsFB15k, FB15k-237, WN18, and WN18RR. 表5と表6は、KGEmodelsonthebenchm arkdatasetsFB15k、FB15k-237、WN18RR、WN18RRのパフォーマンスを示している。 0.45
Trans4E outperforms the other models in Hits@3 and Hits@10 in FB15k and WN18. Trans4Eは、FB15kとWN18のHits@3とHits@10で他のモデルより優れている。 0.59
It also obtainsasignificantlybetterMRonFB15 k-237andWN18RR. また、sasignificantlybette rmronfb15k-237andwn1 8rrも取得する。 0.22
InFB15k,theTrans4Emo deloutperformsallthe othermodels when considering the Hits@3 and Hits@10. Hits@3とHits@10を考えるとき、Trans4Emodeloutperfo rmsalltheothermodels 。 0.55
In WN18, Trans4E outperforms TransE and QuatE, and obtains competitive results with respect to RotatE. WN18では、Trans4EはTransEとQuatEを上回り、RotatEに関して競争結果を得る。 0.65
To note that, these results are computed by running the models on the benchmark datasets using the best obtained hyperparameter settings where the dimension is 200, and with 20 negative samples using adversarial negative sampling [45]. 注意すべき点は、これらの結果は、200次元の最高のハイパーパラメータ設定と、逆負サンプリングを使用して20の負のサンプルを使用してベンチマークデータセット上でモデルを実行することで計算されることだ [45]。 0.76
The re- M. Nayyeri et al : Preprint submitted to Elsevier 再会 M. Nayyeri et al : Elsevierに提出されたプレプリント 0.57
Page 11 of 14 14頁11頁。 0.75
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
Figure 5: Distribution of Topics w.r.t Years. 図 5: トピックの分布 w.r.t 年。 0.74
year >= 2015 is considered recent, year >= 2010 and year < 2015 are denoted as medium_recent, year >= 2005 and year < 2010 are medium_old, year>= 2000 and year < 2005 mean old, and anything before 2000 is very_old. year >= 2015 is considered recent, year >= 2010 and year < 2015 is referred as medium_recent, year >= 2005 and year <2010 is medium_old, year>= 2000 and year < 2005 means very_old。
訳抜け防止モード: year > = 2015は最近のものとされ、 year > = 2010 で、 year < 2015 は medium_recent と表記される。 year > = 2005, year < 2010 is medium_old, year>= 2000 2005年というのは 2000年以前のものはとても古い。
0.92
and medium_old period indicating that even if old is still lasting.There is also a cluster of topics around the very_old timeperiodforwhichth ecorrespondingvector sareverydifferent from the ones in other time periods. また、中古期は、古い時代が続くことを示しており、また、古い時代に関する話題の集まりもあり、これは、他の時代と異なる。 0.56
A manual analysis revealed that most of them were mostly active before the year 2000. 手動分析の結果、そのほとんどは2000年以前に活動していたことが判明した。
訳抜け防止モード: 手動で分析したところ ほとんどが2000年以前に活動していました
0.73
also intend to use Trans4E for supporting a variety of other tasks involving scholarly KGs, such as trend detection, expert search, and recommendation of articles and patents. また、トレンド検出、専門家検索、記事や特許の推薦など、学術的なKGに関わるさまざまなタスクをサポートするためにTrans4Eを使用する予定である。 0.57
Finally, we plan to investigate the application of Trans4E on KGs describing scientific knowledge, such as AI-KG [12] and ORKG [18]. 最後に,AI-KG [12] やORKG [18] などの科学知識を記述した KG への Trans4E の適用について検討する。 0.80
6. Conclusion and Future Work In this paper we presented Trans4E, a KGE model designed to provide link prediction for KGs that include N to M relations with NâM. 6. 結論と今後の課題 この論文では、N to M と NâM の関係を含む KG のリンク予測を提供するために設計された KGE モデルである Trans4E を紹介した。 0.78
Trans4E and its regularized versions (Trans4EReg1 and Trans4EReg2)havebeen appliedonarealworldc aseinvolving the Academic/Industry DynAmics Knowledge Graphs (AIDA) and the Microsoft Academic Graph (MAG). Trans4Eとその正規化バージョン(Trans4EReg1とTrans4EReg2)havebeen appliedonarealworldc ase involving the Academic/Industry DynAmics Knowledge Graphs (AIDA) and the Microsoft Academic Graph (MAG)。 0.67
The evaluation showed that Trans4E outperforms other approaches in the case of N to M relations with N â M and obtains competitive results in all the other settings, in particular when using low embedding dimensions. 評価の結果、Trans4E は N â M と N â M の関係において他の手法よりも優れており、特に低埋め込み次元を用いた場合、他のすべての設定において競合結果が得られることがわかった。 0.63
Hence, our approach appears to be an effective and generalizable solution able to achieve and sometimes improve state-of-the-art performance on many established benchmarks. したがって、我々のアプローチは、多くの確立されたベンチマークにおける最先端のパフォーマンスを達成し、時には改善できる効果的で一般化可能なソリューションであるように見える。 0.47
In addition, it seems to be the most effective model when dealing with shallow classification schemes and using low embedding dimensions. さらに、浅い分類スキームと低い埋め込み次元を使用する場合、最も効果的なモデルであると考えられる。 0.74
In future work we aim to perform link prediction on other relations in AIDA and MAG, with the aim to release a new version of these KGs for the research community. 今後の取り組みとして,aida と mag の他の関係をリンク予測し,これらの kg の新バージョンを研究コミュニティ向けにリリースすることを目指している。 0.74
We Acknowledgements We gratefully acknowledge the support of NVIDIA Corporation with the donation of the Titan X GPU used for this research. 私たち 承認 この研究に使用されるTitan X GPUの寄付でNVIDIA Corporationのサポートを喜んで認めます。 0.70
This work is supported by the EC Horizon 2020 grant LAMBDA (GA no. この作業は、EC Horizon 2020がLAMBDA(GA no)を認可している。 0.64
809965), and the CLEOPATRA project (GA no. 809965)とCLEOPATRAプロジェクト(GANo。 0.58
812997). References [1] Ammar, W., Groeneveld, D., Bhagavatula, C., Beltagy, I., Crawford, M., Downey, D., Dunkelberger, J., Elgohary, A., Feldman, S., Ha, V., et al , 2018. 812997). 参照: [1] Ammar, W., Groeneveld, D., Bhagavatula, C., Beltagy, I., Crawford, M., Downey, D., Dunkelberger, J., Elgohary, A., Feldman, S., Ha, V., et al , 2018 0.84
Construction of the literature graph in semantic scholar. 意味学者における文献グラフの構築 0.74
arXiv preprint arXiv:1805.02262 . arXiv preprint arXiv:1805.02262 0.69
[2] Angioni, S., Salatino, A.A., Osborne, F., Recupero, D.R., Motta, E., 2020. [2] Angioni, S., Salatino, A.A., Osborne, F., Recupero, D.R., Motta, E., 2020 0.94
Integrating knowledge graphs for analysing academia and industry dynamics, in: ADBIS, TPDL and EDA 2020 Common Workshops and Doctoral Consortium, Springer. adbis, tpdl, eda 2020 common workshops and doctoral consortium, springerなど,学界と産業のダイナミクスを分析するためのナレッジグラフの統合。
訳抜け防止モード: 学術と産業のダイナミクスを分析するための知識グラフの統合 In : ADBIS, TPDL, EDA 2020 Common Workshops and Doctoral Consortium, Springer
0.85
pp. 219–225. pp. 219–225. 0.78
[3] Arora, S., 2020. [3]Arora, S., 2020。 0.79
A survey on graph neural networks for knowledge graph completion. 知識グラフ補完のためのグラフニューラルネットワークに関する研究 0.76
arXiv preprint arXiv:2007.12374 . arXiv preprint arXiv:2007.12374 0.69
[4] Belleau, F., Nolin, M.A., Tourigny, N., Rigault, P., Morissette, J., 2008. [4] Belleau, F., Nolin, M.A., Tourigny, N., Rigault, P., Morissette, J., 2008 0.88
Bio2rdf: towards a mashup to build bioinformatics knowledge systems. Bio2rdf: バイオインフォマティクス知識システムを構築するマッシュアップに向けて。 0.62
Journal of biomedical informatics 41, 706–716. 生物医学情報誌 41, 706-716。 0.76
[5] Bendre, N., Marín, H.T., Najafirad, P., 2020. 5] Bendre, N., Marín, H.T., Najafirad, P., 2020 0.81
Learning from few samples: A survey. いくつかのサンプルから学ぶ:調査。 0.84
arXiv preprint arXiv:2007.15484 . arXiv preprint arXiv:2007.15484 0.69
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 12 of 14 14頁12頁。 0.74
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
[6] Bonatti, P.A., Decker, S., Polleres, A., Presutti, V., 2019. 6]Bonatti, P.A., Decker, S., Polleres, A., Presutti, V., 2019 0.80
Knowledge graphs: New directions for knowledge representation on the semantic web (dagstuhl seminar 18371), in: Dagstuhl Reports, Schloss Dagstuhl-Leibniz-Zen trum fuer Informatik. knowledge graphs: new directions for knowledge representation on the semantic web (dagstuhl seminar 18371) in: dagstuhl reports, schloss dagstuhl-leibniz-zen trum fuer informatik 0.79
[7] Bordes, A., Usunier, N., Garcia-Duran, A., Weston, J., Yakhnenko, O., 2013. [7]Bordes, A., Usunier, N., Garcia-Duran, A., Weston, J., Yakhnenko, O., 2013 0.85
Translating embeddings for modeling multi-relational data, in: Advances in NIPS. マルチリレーショナルデータのモデリングのための埋め込みの翻訳: NIPSの進歩 0.81
[8] Bose, A.J., Jain, A., Molino, P., Hamilton, W.L., 2019. [8]Bose, A.J., Jain, A., Molino, P., Hamilton, W.L., 2019 0.87
Metagraph: Few shot link prediction via meta learning. メタグラフ:メタラーニングによるリンク予測は少ない。 0.64
arXiv preprint arXiv:1912.09867 . arXiv preprint arXiv:1912.09867 0.69
[9] Cavallari, S., Cambria, E., Cai, H., Chang, K.C.C., Zheng, V.W., 2019. 9] Cavallari, S., Cambria, E., Cai, H., Chang, K.C.C., Zheng, V.W., 2019 0.96
Embedding both finite and infinite communities on graphs [application notes]. 有限コミュニティと無限コミュニティの両方をグラフに埋め込む[応用ノート]. 0.77
IEEE Computational Intelligence Magazine 14, 39– 50. IEEE Computerutational Intelligence Magazine 14 39–50。 0.76
[10] Chen, M., Zhang, W., Zhang, W., Chen, Q., Chen, H., 2019. [10]Chen、M.、Zhang、W.、Zhang、W.、Chen、Q.、Chen、H.、2019。 0.64
Meta relational learning for few-shot link prediction in knowledge graphs, in: Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 知識グラフにおける数ショットリンク予測のためのメタリレーショナル学習: 自然言語処理における経験的手法に関する2019年会議と第9回国際自然言語処理会議(EMNLP-IJCNLP)の成果, pp。 0.85
4208–4217. 4208–4217. 0.71
[11] Chen, X., Jia, S., Xiang, Y., 2020. [11] Chen, X., Jia, S., Xiang, Y., 2020 0.79
A review: Knowledge reasoning over knowledge graph. レビュー:知識グラフに対する知識推論。 0.71
Expert Systems with Applications 141, 112948. アプリケーション141,12948のエキスパートシステム。 0.68
[12] Dessı, D., Osborne, F., Recupero, D.R., Buscaldi, D., Motta, E., Sack, H., . [12] Dessı, D., Osborne, F., Recupero, D.R., Buscaldi, D., Motta, E., Sack, H. 0.87
Ai-kg: an automatically generated knowledge graph of artificial intelligence . Ai-kg:人工知能の知識グラフを自動生成する。 0.77
[13] Färber,M.,2019. 13) Färber, M., 2019。 0.67
Themicrosoftacademic knowledgegraph: Alinked data source with 8 billion triples of scholarly data, in: International Semantic Web Conference, Springer. the microsoftacademickno wledgegraph: alinked data source with 80 billion triples of scholarly data, in: international semantic web conference, springer(英語) 0.72
pp. 113–129. pp. 113–129. 0.78
[14] Gong, K., Gao, Y., Liang, X., Shen, X., Wang, M., Lin, L., 2019. [14]Gong, K., Gao, Y., Liang, X., Shen, X., Wang, M., Lin, L., 2019 0.79
Graphonomy: Universal human parsing via graph transfer learning, in: ProceedingsoftheIEEE ConferenceonComputer VisionandPattern Recognition, pp. graphonomy: universal human parsing via graph transfer learning, in: proceedings oftheieeeconferenceo ncomputervisionandpa ttern recognition, pp. (英語) 0.43
7450–7459. 7450–7459. 0.71
[15] Goyal, P., Ferrara, E., 2018. [15]Goyal, P., Ferrara, E., 2018。 0.76
Graph embedding techniques, applications, and performance: A survey. グラフ埋め込み技術、アプリケーション、パフォーマンス: 調査。 0.57
Knowledge-Based Systems 151, 78–94. 知識ベースシステム151, 78-94。 0.66
[16] Groth, P., Gibson, A., Velterop, J., 2010. [16] Groth, P., Gibson, A., Velterop, J., 2010 0.79
The anatomy of a nanopublication. ナノパブリケーションの解剖学です 0.61
Information Services & Use 30, 51–56. 情報サービス・利用30、51-56。 0.69
[17] Henk, V., Vahdati, S., Nayyeri, M., Ali, M., Yazdi, H.S., Lehmann, J., 2019. Henk, V., Vahdati, S., Nayyeri, M., Ali, M., Yazdi, H.S., Lehmann, J., 2019 0.75
Metaresearch recommendations using knowledge graph embeddings, in: RecNLP workshop of AAAI Conference. ナレッジグラフ埋め込みを用いたメタリサーチのレコメンデーション, in: recnlp workshop of aaai conference 0.61
[18] Jaradeh, M.Y., Oelen, A., Farfar, K.E., Prinz, M., D’Souza, J., Kismihók, G., Stocker, M., Auer, S., 2019. [18]Jaradeh, M.Y., Oelen, A., Farfar, K.E., Prinz, M., D’Souza, J., Kismihók, G., Stocker, M., Auer, S., 2019 0.91
Openresearchknowledg egraph: Next generation infrastructure for semantic scholarly knowledge, in: Proceedingsofthe10th InternationalConfere nceonKnowledgeCaptur e, pp. Openresearchknowledg egraph: Next Generation Infrastructure for semantic scholarly knowledge, in: Proceedingsofthe10th InternationalConfere nceonKnowledgeCaptur e, pp。 0.50
243–246. [19] Ji, S., Pan, S., Cambria, E., Marttinen, P., Yu, P.S., 2021. 243–246. [19]Ji,S.,Pan,S.,Cambria ,E.,Marttinen,P.,Yu, P.S.,2021 0.69
A survey on knowledge graphs: Representation, acquisition and applications. 知識グラフに関する調査: 表現、取得、応用。 0.64
IEEE Transactions on Neural Networks and Learning Systems 32. IEEE Transactions on Neural Networks and Learning Systems 32(英語) 0.87
[20] Knoth, P., Zdrahal, Z., 2011. [20] Knoth, P., Zdrahal, Z., 2011 0.71
Core: connecting repositories in the openaccessdomain,in: CERNWorkshoponInnova tionsinScholarly Communication (OAI7). コア: オープンアクセスドメイン内のリポジトリを接続する: CERNWorkshoponInnova tionsinScholarly Communication (OAI7)。 0.58
URL: http://oro.open.ac.u k/32560/. URL: http://oro.open.ac.u k/32560/ 0.48
poster Session ID: 53. ポスターセッションid: 53。 0.64
[21] Knoth, P., Zdrahal, Z., 2012. [21] knoth, p., zdrahal, z., 2012 年。 0.78
Core: three access levels to underpin open access. コア: オープンアクセスを支える3つのアクセスレベル。 0.87
D-Lib Magazine 18, 1–13. D-Lib Magazine 18, 1-1。 0.59
[22] Kuhn, T., Chichester, C., Krauthammer, M., Queralt-Rosinach, N., Verborgh,R.,Giannako poulos,G.,Ngomo,A.C. N.,Viglianti,R.,Dumo ntier, M., 2016. [22] Kuhn, T., Chichester, C., Krauthammer, M., Queralt-Rosinach, N., Verborgh,R., Giannakopoulos,G.,Ng omo,A.C.N.,Viglianti ,R.,Dumontier, M., 2016 0.94
Decentralized provenance-aware publishing with nanopublications. ナノパブリケーションによる分散型プロファイランス対応出版。 0.42
PeerJ Computer Science 2, e78. PeerJ Computer Science 2, e78。 0.91
[23] Lacroix, T., Usunier, N., Obozinski, G., 2018. [23] Lacroix, T., Usunier, N., Obozinski, G., 2018 0.78
Canonical tensor decomposition for knowledge base completion, in: International Conference on Machine Learning, pp. 知識ベース完成のための標準テンソル分解 in: international conference on machine learning, pp. 0.72
2863–2872. 2863–2872. 0.71
[24] Lee, J., Kim, H., Lee, J., Yoon, S., 2017. [24]Lee,J.,Kim,H.,Lee,J. ,Yoon,S.,2017 0.75
Transfer learning for deep learning on graph-structured data., in: AAAI, pp. グラフ構造データを用いたディープラーニングのためのトランスファー学習 0.53
2154–2160. 2154–2160. 0.71
[25] Li, L., Wang, P., Wang, Y., Jiang, J., Tang, B., Yan, J., Wang, S., Liu, Y.,2019. [25] Li, L., Wang, P., Wang, Y., Jiang, J., Tang, B., Yan, J., Wang, S., Liu, Y., 2019 0.86
Prtransh: Embeddingprobabilist icmedicalknowledgefr om real world emr data. prtransh: embeddedprobabilisti cmedknowledge from real world emr data。 0.51
arXiv preprint arXiv:1909.00672 . arXiv preprint arXiv:1909.00672 0.69
[26] Maaten, L.v.d., Hinton, G., 2008. [26]Maaten, L.v.d., Hinton, G., 2008 0.95
Visualizing data using t-sne. t-sneによるデータの可視化 0.51
Journal of machine learning research 9, 2579–2605. Journal of Machine Learning Research 9, 2579–2605 0.86
[27] Mannocci, A., Osborne, F., Motta, E., 2019. [27]Mannocci, A., Osborne, F., Motta, E., 2019 0.75
Geographical trends in academic conferences: An analysis of authors’ affiliations. 学術会議における地理学的傾向 : 著者の関連性の分析 0.74
Data Science 2, 181–203. データサイエンス 2, 181–203。 0.74
[28] Nathani, D., Chauhan, J., Sharma, C., Kaul, M., 2019. [28]Nathani, D., Chauhan, J., Sharma, C., Kaul, M., 2019 0.76
Learning attention-based embeddings for relation prediction in knowledge graphs, in: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 知識グラフにおける関係予測のための学習注意型埋め込み,in:第57回計算言語学会年次大会紀要, pp. 0.79
4710–4723. 4710–4723. 0.71
[29] Nayyeri, M., Vahdati, S., Zhou, X., Yazdi, H.S., Lehmann, J., 2020a. [29]Nayyeri, M., Vahdati, S., Zhou, X., Yazdi, H.S., Lehmann, J., 2020a。 0.92
Embedding-based recommendations on scholarly knowledge graphs, in: European Semantic Web Conference, Springer. 学術的知識グラフへの埋め込みベースのレコメンデーション in: european semantic web conference, springer。 0.72
pp. 255–270. pp. 255–270. 0.78
[30] Nayyeri, M., Xu, C., Vahdati, S., Vassilyeva, N., Sallinger, E., Yazdi, H.S., Lehmann, J., 2020b. [30]Nayyeri,M.,Xu,C.,Vah dati,S.,Vassilyeva,N .,Sallinger,E.,Yazdi ,H.S.,Lehmann,J.,202 0b。 0.75
Fantastic knowledge graph embeddings and how to find the right space for them, in: International Semantic Web Conference, Springer. 素晴らしいナレッジグラフの埋め込みと、それらに適したスペースを見つける方法、in: international semantic web conference, springer。
訳抜け防止モード: 幻想的な知識グラフの埋め込みと、それらの適切な空間を見つける方法。 In : International Semantic Web Conference, Springer
0.85
pp. 438–455. pp. 438–455. 0.78
[31] Nayyeri, M., Xu, C., Vahdati, S., Vassilyeva, N., Sallinger, E., Yazdi, H.S., Lehmann, J., 2020c. [31]Nayyeri, M., Xu, C., Vahdati, S., Vassilyeva, N., Sallinger, E., Yazdi, H.S., Lehmann, J., 2020c。 0.90
Fantastic knowledge graph embeddings and how to find the right space for them, in: ISWC. 幻想的な知識グラフの埋め込みと、それらの適切なスペースを見つける方法: ISWC。 0.79
[32] Nickel, M., Murphy, K., Tresp, V., Gabrilovich, E., 2016. He32] Nickel, M., Murphy, K., Tresp, V., Gabrilovich, E., 2016 0.76
A review of relational machine learning for knowledge graphs. 知識グラフのための関係機械学習の検討 0.72
Proceedings of the IEEE 104. IEEE 104の後継機。 0.66
[33] Nuzzolese, A.G., Gentile, A.L., Presutti, V., Gangemi, A., 2016. [33] Nuzzolese, A.G., Gentile, A.L., Presutti, V., Gangemi, A., 2016 0.95
Semantic web conference ontology-a refactoring solution, in: European Semantic Web Conference, Springer. semantic web conference ontology - リファクタリングソリューション、in: european semantic web conference、springer。 0.70
pp. 84–87. pp. 84–87. 0.78
[34] Osborne, F., Mannocci, A., Motta, E., 2017. [34]Osborne, F., Mannocci, A., Motta, E., 2017 0.69
Forecasting the spreading of technologies in research communities, in: Proceedings of the Knowledge Capture Conference, ACM, New York, NY, USA. 研究コミュニティにおける技術の普及予測,in: proceedings of the knowledge capture conference, acm, new york, ny, usa 0.73
pp. 1:1–1:8. doi:10.1145/3148011. 3148030. pp. 1:1-1:8. doi:10.1145/3148011. 3148030。 0.54
[35] Paliwal, A., Gimeno, F., Nair, V., Li, Y., Lubin, M., Kohli, P., Vinyals, O., 2019. [35]Paliwal, A., Gimeno, F., Nair, V., Li, Y., Lubin, M., Kohli, P., Vinyals, O., 2019 0.79
Regal: Transfer learning for fast optimization of computation graphs. regal: 計算グラフの高速最適化のための転送学習。 0.81
arXiv preprint arXiv:1905.02494 . arXiv preprint arXiv: 1905.02494 0.68
[36] Peroni, S., Shotton, D., 2018. He36] Peroni, S., Shotton, D., 2018 0.71
The spar ontologies, in: International Semantic Web Conference, Springer. spar ontologies, in: international semantic web conference, springer.com (英語) 0.77
pp. 119–136. pp. 119–136. 0.78
[37] Peroni, S., Shotton, D., 2020. [37] Peroni, S., Shotton, D., 2020 0.77
Opencitations, an infrastructure organization for open scholarship. Opencitations - オープン奨学金のためのインフラ組織。 0.70
Quantitative Science Studies 1, 428–444. 定量的科学研究1, 428-444。 0.72
[38] Salatino, A., Osborne, F., Motta, E., 2020a. [38]Salatino, A., Osborne, F., Motta, E., 2020a。 0.75
Researchflow: Understanding the knowledge flow between academia and industry, in: Knowledge Engineering and Knowledge Management – 22nd International Conference, EKAW 2020. researchflow: understanding the knowledge flow between academia and industry, in: knowledge engineering and knowledge management – 22nd international conference, ekaw 2020(英語) 0.85
[39] Salatino, A.A., Thanapalasingam, T., Mannocci, A., Birukou, A., Osborne, F., Motta, E., 2020b. [39]Salatino,A.A.,Tahala singam,T.,Mannocci,A .,Birukou,A.,Osborne ,F.,Motta,E.,2020b。 0.70
The computer science ontology: A comprehensive automatically-genera ted taxonomy of research areas. コンピュータ科学オントロジー:研究分野の包括的自動生成分類法。 0.71
Data Intelligence 2, 379–416. データインテリジェンス2、379-416。 0.72
[40] Salatino, A.A., Thanapalasingam, T., Mannocci, A., Osborne, F., Motta, E., 2018. [40] Salatino, A.A., Thanapalasingam, T., Mannocci, A., Osborne, F., Motta, E., 2018 0.87
The computer science ontology: a large-scale taxonomy of research areas, in: ISWC, pp. The Computer Science Ontology: a Large-scale taxonomy of research area, in: ISWC, pp。 0.85
187–205. [41] Schneider, J., Ciccarese, P., Clark, T., Boyce, R.D., 2014. 187–205. [41] Schneider, J., Ciccarese, P., Clark, T., Boyce, R.D., 2014 0.79
Using the micropublications ontology and the open annotation data model to represent evidence within a drug-drug interaction knowledge base. マイクロパブリケーションオントロジーとオープンアノテーションデータモデルを使用して、薬物と薬物の相互作用の知識ベース内の証拠を表現する。
訳抜け防止モード: マイクロパブリケーションオントロジーとオープンアノテーションデータモデルの利用 薬物相互作用知識ベース内の証拠を表す。
0.74
[42] Shotton, D., 2009. [42]shotton, d., 2009 年。 0.80
Semantic publishing: the coming revolution in scientific journal publishing. セマンティクス・パブリッシング(semantic publishing: the coming revolution in scientific journal publishing)は、科学雑誌。 0.62
Learned Publishing 22, 85–94. 22巻85-94頁。 0.52
[43] Stanovsky, G., Gruhl, D., Mendes, P., 2017. 43] Stanovsky, G., Gruhl, D., Mendes, P., 2017 0.70
Recognizing mentions of adverse drug reaction in social media using knowledge-infused recurrent models, in: Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 知識注入リカレントモデルを用いたソーシャルメディアにおける有害薬物反応の言及の認識: 計算言語学会欧州支部第15回講演会, 巻1, ロングペーパー, pp。 0.65
142–151. [44] Sun, F.Y., Qu, M., Hoffmann, J., Huang, C.W., Tang, J., 2019a. 142–151. [44]Sun, F.Y., Qu, M., Hoffmann, J., Huang, C.W., Tang, J., 2019a。 0.84
vgraph: A generative model for joint community detection and node representation learning, in: Advances in Neural Information Processing Systems, pp. vgraph: a generative model for joint community detection and node representation learning, in: advances in neural information processing systems, pp。 0.79
514–524. [45] Sun, Z., Deng, Z.H., Nie, J.Y., Tang, J., 2019b. 514–524. [45] Sun, Z., Deng, Z.H., Nie, J.Y., Tang, J., 2019b. 0.83
Rotate: Knowledge graph embedding by relational rotation in complex space, in: International Conference on Learning Representations. Rotate: 複雑な空間における関係回転による知識グラフの埋め込み: 学習表現に関する国際会議 0.86
URL: https: //openreview.net/for um?id=HkgEQnRqYQ. URL: https: //openreview.net/for um?id=HkgEQnRqYQ 0.65
[46] Sun, Z., Vashishth, S., Sanyal, S., Talukdar, P., Yang, Y., 2019c. [46]Sun,Z.,Vashishth,S., Sanyal,S.,Talukdar,P .,Yang,Y.,2019c。 0.71
A reevaluation of knowledge graph completion methods. 知識グラフ補完法の再評価 0.61
arXiv preprint arXiv:1911.03903 . arXiv preprint arXiv:1911.03903 0.70
[47] Tran, H.N., Takasu, A., 2019. [47]Tran, H.N., Takasu, A., 2019 0.83
Exploring scholarly data by semantic query on knowledge graph embedding space, in: International 知識グラフ埋め込み空間における意味的問合せによる学術データの探索,in:国際化 0.74
M. Nayyeri et al : Preprint submitted to Elsevier M. Nayyeri et al : Elsevierに提出されたプレプリント 0.74
Page 13 of 14 14ページ13頁。 0.80
英語(論文から抽出)日本語訳スコア
Link Prediction of Scholarly Knowledge Graphs 学術知識グラフのリンク予測 0.73
Conference on Theory and Practice of Digital Libraries, Springer. デジタル図書館の理論と実践に関する会議、springer。 0.79
pp. 154–162. pp. 154–162. 0.78
[48] Trouillon, T., Welbl, J., Riedel, S., Gaussier, É., Bouchard, G., 2016. [48] Trouillon, T., Welbl, J., Riedel, S., Gaussier, É., Bouchard, G., 2016 0.81
Complex embeddings for simple link prediction, in: International Conference on Machine Learning, pp. 簡単なリンク予測のための複雑な埋め込み in: international conference on machine learning, pp. 0.89
2071–2080. 2071–2080. 0.71
[49] Vu, T., Nguyen, T.D., Nguyen, D.Q., Phung, D., et al , 2019. [49] Vu, T., Nguyen, T.D., Nguyen, D.Q., Phung, D., et al , 2019。 0.96
A capsule network-based embedding model for knowledge graph completion and search personalization, in: Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. a capsule network-based embedded model for knowledge graph completion and search personalization, in: proceedings of the 2019 conference of the north american chapter of the association for computational linguistics: human language technologies, volume 1 (long and short papers), pp。 0.81
2180–2189. 2180–2189. 0.71
[50] Wang, H., Zhang, F., Zhang, M., Leskovec, J., Zhao, M., Li, W., Wang, Z., 2019a. [50] Wang, H., Zhang, F., Zhang, M., Leskovec, J., Zhao, M., Li, W., Wang, Z., 2019a. 0.88
Knowledge-aware graph neural networks with label smoothnessregulariza tionforrecommendersy stems, in: Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. in: proceedings of the 25th acm sigkdd international conference on knowledge discovery & data mining, pp. (英語) 0.35
968–977. [51] Wang, K., Shen, Z., Huang, C., Wu, C.H., Dong, Y., Kanakia, A., 2020a. 968–977. [51] Wang, K., Shen, Z., Huang, C., Wu, C.H., Dong, Y., Kanakia, A., 2020a。 0.81
Microsoft academic graph: When experts are not enough. microsoft academic graph: 専門家が不十分な場合。 0.84
Quantitative Science Studies 1, 396–413. 数理科学研究1,396-413。 0.75
[52] Wang, Q., Mao, Z., Wang, B., Guo, L., 2017. [52] Wang, Q., Mao, Z., Wang, B., Guo, L., 2017 0.79
Knowledge graph embedding: A survey of approaches and applications. 知識グラフの埋め込み: アプローチとアプリケーションの調査。 0.75
IEEE TKDE 29. IEEE TKDE 29。 0.81
[53] Wang, W., Liu, J., Tang, T., Tuarob, S., Xia, F., Gong, Z., King, I., 2020b. [53] wang, w., liu, j., tang, t., tuarob, s., xia, f., gong, z., king, i., 2020b
訳抜け防止モード: [53 ]王、王、李、J、唐、T、 Tuarob, S., Xia, F., Gong, Z. 王, I., 2020b。
0.75
Attributed collaboration network embedding for academic relationship mining. 学術関係マイニングのための分散コラボレーションネットワーク埋め込み 0.71
ACM Transactions on the Web (TWEB) 15, 1–20. ACM Transactions on the Web (TWEB) 15 - 1–20。 0.91
[54] Wang, Y., Yao, Q., Kwok, J.T., Ni, L.M., 2020c. [54] Wang, Y., Yao, Q., Kwok, J.T., Ni, L.M., 2020c. 0.96
Generalizing from a few examples: A survey on few-shot learning. いくつかの例から一般化する: 少数ながらの学習に関する調査。 0.72
ACM Computing Surveys (CSUR) 53, 1–34. ACM Computing Surveys (CSUR) 53, 1–34。 0.90
[55] Wang, Z., Ren, Z., He, C., Zhang, P., Hu, Y., 2019b. [55] Wang, Z., Ren, Z., He, C., Zhang, P., Hu, Y., 2019b. 0.88
Robust embedding with multi-level structures for link prediction., in: IJCAI, pp. リンク予測のためのマルチレベル構造を用いたロバスト埋め込み, IJCAI, pp。 0.77
5240–5246. 5240–5246. 0.71
[56] Wolstencroft, K., Haines, R., Fellows, D., Williams, A., Withers, D., Owen, S., et al , 2013. [56]Wolstencroft, K., Haines, R., Fellows, D., Williams, A., Withers, D., Owen, S., et al , 2013 0.81
The taverna workflow suite: designing and executing workflows of web services on the desktop, web or in the cloud. Tavernaワークフロースイート: デスクトップやWeb,あるいはクラウド上でのWebサービスのワークフローの設計と実行。 0.76
Nucleic acids research 41, W557–W561. 核酸研究41,w557-w561。 0.71
[57] Wu, Z., Pan, S., Chen, F., Long, G., Zhang, C., Philip, S.Y., 2020. [57]Wu,Z.,Pan,S.,Chen,F. ,Long,G.,Zhang,C.,Ph ilip,S.Y.,2020 0.67
A comprehensive survey on graph neural networks. グラフニューラルネットワークに関する総合的な調査 0.73
IEEE Transactions on Neural Networks and Learning Systems . IEEE Transactions on Neural Networks and Learning Systems 0.70
[58] Yao, L., Zhang, Y., Wei, B., Jin, Z., Zhang, R., Zhang, Y., Chen, Q., 2017. [58]Yao, L., Zhang, Y., Wei, B., Jin, Z., Zhang, R., Zhang, Y., Chen, Q., 2017 0.81
Incorporating knowledge graph embeddings into topic modeling, in: Thirty-First AAAI Conference on Artificial Intelligence. 知識グラフをトピックモデリングに組み込む - in: thirty-first aaai conference on artificial intelligence。 0.74
[59] Yin, W., 2020. 59] yin, w., 2020。 0.64
Meta-learning for few-shot natural language processing: A survey. 少数の自然言語処理のためのメタラーニング:調査 0.74
arXiv preprint arXiv:2007.09604 . arXiv preprint arXiv:2007.09604 0.69
[60] Zhang, C., Yao, H., Huang, C., Jiang, M., Li, Z., Chawla, N.V., 2020. [60]Zhang, C., Yao, H., Huang, C., Jiang, M., Li, Z., Chawla, N.V., 2020 0.85
Few-shot knowledge graph completion, in: Proceedings of the AAAI Conference on Artificial Intelligence, pp. AAAI Conference on Artificial Intelligence, pp. (英語) Proceedings of the AAAI Conference on Artificial Intelligence (英語) 0.67
3041–3048. 3041–3048. 0.71
[61] Zhang, S., Tay, Y., Yao, L., Liu, Q., 2019. [61]Zhang, S., Tay, Y., Yao, L., Liu, Q., 2019 0.76
Quaternion knowledge graph embedding. 四元数知識グラフの埋め込み。 0.62
arXiv preprint arXiv:1904.10281 . arXiv preprint arXiv:1904.10281 0.70
[62] Zhang, Y., Zhang, F., Yao, P., Tang, J., 2018. [62]Zhang, Y., Zhang, F., Yao, P., Tang, J., 2018 0.75
Name disambiguation in aminer: Clustering, maintenance, and human in the loop., in: Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. aminer: Clustering, maintenance, and human in the loop, in: Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. 0.72
1002–1011. 1002–1011. 0.71
[63] Zhou, J., Cui, G., Zhang, Z., Yang, C., Liu, Z., Wang, L., Li, C., Sun, M., 2018. [63]Zhou, J., Cui, G., Zhang, Z., Yang, C., Liu, Z., Wang, L., Li, C., Sun, M., 2018 0.79
Graph neural networks: A review of methods and applications, in: CoRR. graph neural networks: a review of methods and applications, in: corr。 0.76
[64] Zhuang, F., Qi, Z., Duan, K., Xi, D., Zhu, Y., Zhu, H., Xiong, H., He, Q., 2020. [64]Zhuang, F., Qi, Z., Duan, K., Xi, D., Zhu, Y., Zhu, H., Xiong, H., He, Q., 2020 0.81
A comprehensive survey on transfer learning. 転校学習に関する総合的な調査。 0.68
Proceedings of the IEEE . M. Nayyeri et al : Preprint submitted to Elsevier IEEEの成果。 M. Nayyeri et al : Elsevierに提出されたプレプリント 0.66
Page 14 of 14 14ページ。 0.55
                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。