論文の概要、ライセンス

# (参考訳) OntoEnricher: 非構造化テキストからのオントロジーエンリッチメントのためのディープラーニングアプローチ [全文訳有]

OntoEnricher: A Deep Learning Approach for Ontology Enrichment from Unstructured Text ( http://arxiv.org/abs/2102.04081v1 )

ライセンス: CC BY 4.0
Lalit Mohan Sanagavarapu, Vivek Iyer and Y Raghu Reddy(参考訳) サイバー世界の情報セキュリティは、攻撃面の数を大幅に増加させ、懸念の主な原因となっている。 webで利用可能な脆弱性、攻撃、コントロール、アドバイザリに関する既存の情報は、知識を表現し、セキュリティ分析を行い、懸念を緩和する機会を提供する。 オントロジーの形でセキュリティ知識を表現することで、異常検出、脅威インテリジェンス、攻撃の推論と関連性などが容易になります。 これにより、動的かつ自動的な情報セキュリティオントロジーの強化が必要となる。 しかし、自然言語処理とMLモデルに基づく既存のオントロジーエンリッチメントアルゴリズムは、単語、フレーズ、文における概念の文脈的抽出に問題がある。 これは、テキスト内の依存関係パスを横断し、組み込み脆弱性、脅威、制御、製品およびその他のセキュリティ関連の概念と学習されたパス表現からインスタンスを抽出するシーケンシャルディープラーニングアーキテクチャの必要性を動機づけます。 提案手法では,大規模なDBpediaデータセットと2.8GBのウィキペディアコーパスとUniversal Sentence Encoderでトレーニングされた双方向LSTMを,ISO 27001ベースの情報セキュリティオントロジーの強化のために配置した。 このアプローチは、オントロジーとWebページインスタンスのコンセプトをノックアウトして堅牢性を検証すると、テスト精度が80\%以上になった。

Information Security in the cyber world is a major cause for concern, with significant increase in the number of attack surfaces. Existing information on vulnerabilities, attacks, controls, and advisories available on the web provides an opportunity to represent knowledge and perform security analytics to mitigate some of the concerns. Representing security knowledge in the form of ontology facilitates anomaly detection, threat intelligence, reasoning and relevance attribution of attacks, and many more. This necessitates dynamic and automated enrichment of information security ontologies. However, existing ontology enrichment algorithms based on natural language processing and ML models have issues with the contextual extraction of concepts in words, phrases and sentences. This motivates the need for sequential Deep Learning architectures that traverse through dependency paths in text and extract embedded vulnerabilities, threats, controls, products and other security related concepts and instances from learned path representations. In the proposed approach, Bidirectional LSTMs trained on a large DBpedia dataset and Wikipedia corpus of 2.8 GB along with Universal Sentence Encoder was deployed to enrich ISO 27001 based information security ontology. The approach yielded a test accuracy of over 80\% when tested with knocked out concepts from ontology and web page instances to validate the robustness.
公開日: Mon, 8 Feb 2021 09:43:05 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 b e F 8 1 2 0 2 b e F 8 0.85
] L C . s c [ ] L C。 sc [ 0.62
1 v 1 8 0 4 0 1 v 1 8 0 4 0 0.85
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
OntoEnricher: A Deep Learning Approach for Ontology Enrichment from Unstructured Text OntoEnricher: 非構造化テキストからのオントロジーエンリッチメントのためのディープラーニングアプローチ 0.79
Lalit Mohan Sanagavarapu, Vivek Iyer, and Y Raghu Reddy Lalit Mohan Sanagavarapu, Vivek Iyer, Y Raghu Reddy 0.77
lalit.mohan@research .iiit.ac.in, lalit.mohan@research .iiit.ac.in 0.45
vivek.iyer@research. iiit.ac.in,raghu.red dy@iiit.ac.in vivek.iyer@research. iiit.ac.in,raghu.red dy@iiit.ac.in 0.43
Software Engineering Research Centre, IIIT Hyderabad, India インドのハイデラバードiiitソフトウェア工学研究センター 0.77
Abstract. Information Security in the cyber world is a major cause for concern, with significant increase in the number of attack surfaces. 抽象。 サイバー世界の情報セキュリティは、攻撃面の数を大幅に増加させ、懸念の主な原因となっている。 0.74
Existing information on vulnerabilities, attacks, controls, and advisories available on the web provides an opportunity to represent knowledge and perform security analytics to mitigate some of the concerns. webで利用可能な脆弱性、攻撃、コントロール、アドバイザリに関する既存の情報は、知識を表現し、セキュリティ分析を行い、懸念を緩和する機会を提供する。
訳抜け防止モード: Web上で利用可能な脆弱性、攻撃、コントロール、アドバイザリに関する既存の情報が、機会を提供する 知識を表現し セキュリティ分析を行い 懸念を和らげるのです
0.78
Representing security knowledge in the form of ontology facilitates anomaly detection, reasoning and relevance attribution of attacks, and many more. オントロジーの形でセキュリティ知識を表現することは、異常検出、攻撃の推論および関連性トリビューションを容易にする。 0.66
This necessitates dynamic and information security ontologies. これは動的および情報セキュリティオントロジーを必要とする。 0.67
However, automated enrichment of existing ontology enrichment algorithms based on natural language processing and ML models have issues with the contextual extraction of concepts in words, phrases and sentences. しかし、自然言語処理とMLモデルに基づく既存のオントロジーエンリッチメントアルゴリズムの自動強化は、単語、フレーズ、文における概念の文脈的抽出に問題がある。 0.73
This motivates the need for sequential Deep Learning through dependency paths in text and extract embedded vulnerabilities, threats, controls, products and other security related concepts and instances from learned path representations. これにより、テキストの依存関係パスを通じてシーケンシャルディープラーニングの必要性が高まり、組み込み脆弱性、脅威、コントロール、製品、その他のセキュリティ関連の概念やインスタンスを学習パス表現から抽出します。
訳抜け防止モード: これはテキストの依存性パスを通じてシーケンシャルなディープラーニングの必要性を動機付ける 埋め込まれた脆弱性、脅威、制御、製品、その他のセキュリティ関連の概念を 学習パス表現の例です
0.68
In the proposed approach, Bidirectional LSTMs trained on a large DBpedia dataset and Wikipedia corpus of 2.8 GB along with Universal Sentence Encoder was deployed to enrich ISO 27001 [8] based information security ontology. 提案手法では,大規模DBpediaデータセットとウィキペディアコーパス2.8GBとUniversal Sentence Encoderでトレーニングした双方向LSTMを,ISO 27001[8]に基づく情報セキュリティオントロジーの強化のために配置した。 0.75
The approach yielded a test accuracy of over 80% when tested with knocked out concepts from ontology and web page instances to validate the robustness. このアプローチは、オントロジーとWebページインスタンスのコンセプトをノックアウトして堅牢性を検証すると、テスト精度が80%以上向上しました。 0.66
architectures traverse threat 建築 トラバース threat 0.71
intelligence, that Keywords: Ontology Enrichment · Information Security · Bidirectional LSTM · Universal Sentence Encoder. 知性 あれ キーワード:オントロジーエンリッチメント・情報セキュリティ・双方向LSTM・ユニバーサルセンテンスエンコーダ。 0.55
1 Introduction In recent times, there has been an exponential increase in the number of content providers and content consumers on the internet due to various reasons like improved digital literacy, affordable devices, better network, etc. 1 はじめに 近年、デジタルリテラシーの向上、手頃な価格のデバイス、より良いネットワークなど、さまざまな理由により、インターネット上のコンテンツプロバイダーやコンテンツ消費者の数が指数関数的に増加しています。 0.73
Further, the number of internet-connected devices per person is expected to increase even more with the adoption of emerging technologies such as Internet of Things and 5G. さらに、モノのインターネットや5Gなどの新興技術の導入により、一人当たりのインターネット接続デバイス数はさらに増加することが予想されます。 0.77
This change in users and usage is leading to an increase in data breaches1. このユーザと利用状況の変化は、データ漏洩の増加につながっている。 0.76
In many cases, realization of an impact happens long after the 1 https://digitalguard ian.com/blog/history -data-breaches 多くの場合、影響の実現は1 https://digitalguard ian.com/blog/history -data-breachesのずっと後に起こる。 0.58
英語(論文から抽出)日本語訳スコア
2 Sanagavarapu et al. 2 Sanagavarapu et al。 0.81
attack. Typically, organizations invest in security tools and infrastructure that are based on rules, statistical models and machine learning (ML) techniques to identify and mitigate the risks arising from the threats. 攻撃だ 組織は通常、脅威から生じるリスクを特定し軽減するために、ルール、統計モデル、マシンラーニング(ML)技術に基づくセキュリティツールとインフラストラクチャに投資します。
訳抜け防止モード: 攻撃だ 通常、組織はルールに基づいたセキュリティツールやインフラストラクチャに投資します。 統計モデルと機械学習(ML)技術 脅威から引き起こされるリスクを 特定し 軽減するためです
0.71
In addition, organizations purchase threat intelligence feeds to continuously monitor IT infrastructure for anomaly detection. さらに、組織は脅威情報フィードを購入して、異常検出のためのITインフラストラクチャを継続的に監視する。 0.59
The subscription fee of threat intelligence feeds from service providers is expensive and to a large extent, it contains threat intelligence that is already available in public forums. サービスプロバイダーからの脅威インテリジェンスフィードのサブスクリプション料金は高価であり、広く、それはすでにパブリックフォーラムで利用可能である脅威インテリジェンスが含まれています。 0.71
Public forums such as blogs, discussion forums, government sites, social media channels including Twitter and others contain unstructured threat intelligence on vulnerabilities, attacks, and controls. ブログやディスカッションフォーラム,政府サイト,Twitterなどソーシャルメディアチャネルなどの公開フォーラムには,脆弱性や攻撃,コントロールに関する非構造化の脅威情報が含まれている。 0.73
Tech-savvy internet users interested in information security access public forums, search, and browse on security products, related content for awareness and to protect IT assets. 情報セキュリティに関心のあるインターネットユーザは、セキュリティ製品、関連するコンテンツ、そしてIT資産を保護するために、公開フォーラム、検索、閲覧を行う。 0.70
reviews, vulnerabilities and other レビューや脆弱性など 0.64
their configurations, In the recent years, organization’s information security infrastructure use Structured Threat Information eXchange (STIX) / Trusted Automated Exchange of Intelligence Information (TAXII) knowledge representation from OASIS2 to represent observable objects and their properties in the cyber domain. 彼らの構成や 近年、組織の情報セキュリティインフラストラクチャは、OASIS2のStructured Threat Information eXchange (STIX) / Trusted Automated Exchange of Intelligence Information (TAXII)の知識表現を使用して、監視可能なオブジェクトとその特性をサイバードメインで表現しています。 0.71
However, automated processing of unstructured text to generate STIX format is a formidable challenge [31]. しかし、STIXフォーマットを生成するための非構造化テキストの自動処理は、大きな課題[31]です。 0.71
Interestingly, there are transformations available to convert from XML based STIX format to ontological ‘OWL’ or ‘RDF’ formats, which in part, has influenced OASIS to adopt ontology for representations. 興味深いことに、XMLベースのSTIX形式からオントロジー的な「OWL」または「RDF」形式に変換する変換が利用可能であり、その一部はOASISが表現にオントロジーを採用するのに影響を与えている。
訳抜け防止モード: 興味深いことに、XMLベースのSTIXフォーマットからオントロジ的な ‘OWL ’ や ‘RDF ’ フォーマットに変換する変換がある。 一部はOASISに影響を与え、表現にオントロジーを採用する。
0.69
Evidently, the research to use unstructured security related content to enrich ontologies is gaining ground to mitigate risks related to zero-day attacks, malware characterization, digital forensics and incidence response and management [1, 11, 31]. 本研究は, ゼロデイ攻撃, マルウェアの特徴, デジタル法医学, インシデント対応・管理に関するリスクを軽減するため, オントロジーを充実させるために, 構造化されていないセキュリティ関連コンテンツを利用する研究が根底にある。 0.58
Security ontologies are used to analyze vulnerabilities and model attacks [8, 11, 14, 35]. セキュリティオントロジーは、脆弱性の分析とモデル攻撃 [8, 11, 14 35] に使用される。 0.83
The concepts, relationships and instances of defence-in-depth to protect IT assets, map security product features to controls which leads to assurance of the security infrastructure. IT資産を保護するための防衛のコンセプト、関係、およびインスタンスは、セキュリティ製品の機能をセキュリティインフラストラクチャの保証につながるコントロールにマップします。 0.75
The constraints and properties of ontologies allow root cause analysis of attacks. オントロジーの制約と性質は、攻撃の根本原因分析を可能にする。 0.62
Additionally, given that security-related data is in structured, semi-structured or unstructured forms, unifying them with ontologies aids in situational awareness and readiness to defend an attack [31]. さらに、セキュリティ関連のデータが構造化、半構造化、あるいは非構造化形式にあることを踏まえると、それらをオントロジーに統合することで、状況認識と攻撃を防御する準備が整っている [31]。 0.57
are used to validate security ontologies 検証に使われます security‐ontology 0.81
of the level ですから はあ? レベル 0.55
Traditionally, domain experts constructed and maintained ontologies. 伝統的に、ドメインの専門家はオントロジーを構築し維持した。 0.49
Given the extent of effort and cost involved, access to domain content and the ability to process text with advanced natural language processing (NLP) techniques and ML models on powerful IT infrastructure opens up research opportunities to construct and manage ontologies. 努力とコストの程度を考えると、ドメインコンテンツへのアクセスと高度な自然言語処理(NLP)技術と強力なITインフラストラクチャ上のMLモデルでテキストを処理する能力は、オントロジーを構築および管理する研究機会を開きます。 0.89
The information security ontologies can be constructed or enriched from unstructured text available on public forums, vulnerability databases such as National Vulnerability Database (NVD) 3 and other the standards and guidelines from ISO/IEC [12], NIST from US, ENISA from European Nation, Cloud Security Alliance (CSA) and others to protect 情報セキュリティオントロジーは、パブリックフォーラムで利用可能な構造化されていないテキスト、National Vulnerability Database (NVD) 3などの脆弱性データベース、ISO/IEC [12]、ISO/IEC [12]、NIST、European NationのENISA、Cloud Security Alliance (CSA)などの標準およびガイドラインから構築または強化することができる。 0.78
information security processing systems 情報セキュリティ処理システム 0.78
sources. Also, [2, 26] 情報源だ また、 [2, 26] 0.69
2 https://www.oasis-op en.org/ 3 https://nvd.nist.gov 2 https://www.oasis-op en.org/ 3 https://nvd.nist.gov 0.44
英語(論文から抽出)日本語訳スコア
integrity and availability of confidentiality, IT assets, contain embedded concepts. 完全性と可用性 機密性、IT資産には、組み込みの概念が含まれます。 0.61
The ISO 27001:2015 [8] based security ontologies that encompass most of these guidelines are being extensively explored for protection, auditing and compliance checking. これらのガイドラインの大部分を含むISO 27001:2015 [8]ベースのセキュリティオントロジーは、保護、監査、コンプライアンスチェックのために広く検討されています。 0.62
Enrichment of ISO 27001 based ontology provides wider acceptance, easier management and interoperability. ISO 27001ベースのオントロジーの充実により、幅広い受け入れ、管理、相互運用性を提供します。 0.50
OntoEnricher Onto Enricher 0.71
3 In this work, we propose to enrich a widely accepted Information Security ontology instead of constructing a new ontology from text. 3 本研究では,テキストから新たなオントロジーを構築するのではなく,広く受け入れられている情報セキュリティオントロジーの強化を提案する。 0.73
This avoids inclusion of trivial concepts and relations. これは自明な概念と関係を含まない。 0.74
The success of enrichment also enables wider acceptance and usage by domain experts. 強化の成功は、ドメインの専門家による幅広い受け入れと使用を可能にします。 0.59
However, the available literature on ontology enrichment from text is based on approaches utilizing word similarity and supervised ML models [11, 27]. しかし,テキストからのオントロジー豊かさに関する文献は,単語類似性と教師付きMLモデル [11, 27] を利用したアプローチに基づいている。 0.73
These ontology enrichment approaches, albeit useful to extract word-level concepts, are limited with respect to (a) extraction of longer concepts embedded in compound words and phrases (b) factoring context while identifying relevant concepts and (c) extracting In the proposed approach (OntoEnricher), we implemented a supervised sequential deep learning model that: a) factors context from grammatical and linguistic information encoded in the dependency paths of a sentence, and then b) utilizes sequential neural networks, such as Bidirectional Long Short Term Memory (LSTM) [29] to traverse dependency paths and learn relevant path representations that constitute relations. These ontology enrichment approaches, albeit useful to extract word-level concepts, are limited with respect to (a) extraction of longer concepts embedded in compound words and phrases (b) factoring context while identifying relevant concepts and (c) extracting In the proposed approach (OntoEnricher), we implemented a supervised sequential deep learning model that: a) factors context from grammatical and linguistic information encoded in the dependency paths of a sentence, and then b) utilizes sequential neural networks, such as Bidirectional Long Short Term Memory (LSTM) [29] to traverse dependency paths and learn relevant path representations that constitute relations. 0.86
In addition, we utilized pre-trained transformer-based architecture of Universal Sentence Encoder (USE) [4] to handle distributional representations of compound words, phrases, and instances. さらに,Universal Sentence Encoder (USE) [4] の事前学習型トランスフォーマーアーキテクチャを用いて,複合語,フレーズ,インスタンスの分布表現を処理した。 0.78
and classifying instances [13]. 分類し 例 [13]. 0.62
Information security ontology enrichment datasets are not readily available. 情報セキュリティオントロジーエンリッチメントデータセットは簡単には利用できない。 0.68
As a result, we used a semi-automatic approach to create a training dataset of 97,425 related terms (hypernyms, hyponyms and instances) extracted from DBpedia for all the concepts in the information security ontology. その結果,情報セキュリティオントロジーのすべての概念に対してDBpediaから抽出した97,425の関連用語(ハイパーネム,ハイポネム,インスタンス)のトレーニングデータセットを作成するために,半自動アプローチを用いた。 0.76
To learn the syntactic and semantic dependency structure in sentences, a 2.8 GB training corpus on information security was extracted from Wikipedia of all the terms in the ontology and the DBpedia dataset. 文の構文的・意味的依存関係構造を学ぶために、オントロジーとdbpediaデータセットのすべての用語のwikipediaから情報セキュリティに関する2.8gbのトレーニングコーパスを抽出した。 0.74
The curated dataset by three Chief Information Security Officers and corpus were used to train our OntoEnricher. 3人の最高情報セキュリティ責任者とコーパスが集めたデータセットは、OntoEnricherのトレーニングに使用されました。 0.57
The OntoEnricher implemented bidirectional LSTM for learning relevant linguistic information and path sequences in dependency trees to enrich concepts, relations, and instances in ontology. OntoEnricherは、オントロジーにおける概念、関係、事例を豊かにするために、依存ツリーの関連言語情報や経路配列を学習するための双方向LSTMを実装した。
訳抜け防止モード: OntoEnricherは、依存木における関連言語情報と経路配列を学習するための双方向LSTMを実装した。 オントロジーの概念、関係、事例を豊かにします
0.65
We tested OntoEnricher with 10% of training dataset, knocking out terms from ontology and unstructured text from web pages and achieved an average accuracy of 80%, which is better than the current state-of-the-art approaches. トレーニングデータセットの10%でOntoEnricherをテストし、オントロジーと非構造化テキストの用語をWebページからノックアウトし、現在の最先端のアプローチよりも優れた平均80%の精度を達成しました。 0.75
The code and documentation of the entire ontology enrichment pipeline is publicly available on GitHub [30] for reuse and extension. ontology richmentパイプライン全体のコードとドキュメンテーションは、再利用と拡張のためにgithub[30]で公開されている。 0.79
The remainder of the paper is organized as follows: Section 2 discusses the state-of-the-art on ontology enrichment. 第2節では、オントロジーの充実に関する最新動向について説明します。
訳抜け防止モード: 残りの論文は以下のとおりにまとめられている。 第2節ではオントロジーエンリッチメントの現状について論じている。
0.55
In section 3, OntoEnricher - our approach on ontology enrichment from text is detailed. 第3節では、オンテンリヒャー - テキストからオントロジーを豊かにするアプローチについて詳述する。 0.59
The approach is evaluated in Section 4. アプローチはセクション4で評価されます。 0.72
Conclusion and scope of future work is presented in section 5. 将来の作業の結論と範囲は、セクション5で示されています。 0.62
英語(論文から抽出)日本語訳スコア
4 Sanagavarapu et al. 4 Sanagavarapu et al。 0.81
2 Related Work section discusses 2 関連作業 セクションは 0.64
This from unstructured text as well as approaches to create and maintain information security ontologies. これは、構造化されていないテキストから、および情報セキュリティオントロジーを作成および維持するためのアプローチです。 0.59
The work on enrichment of knowledge graphs (KG) from unstructured text is also discussed as it represents knowledge and contains similarities with ontologies. 非構造化テキストからの知識グラフ(KG)の充実に関する作業も、知識を表し、オントロジーと類似性を含むので議論されている。 0.68
related work on enrichment of ontologies オントロジーの充実に関する関連研究 0.61
Researchers worked on knowledge acquisition from text to construct ontologies for past couple of decades [3, 17]. 研究者たちはテキストから知識を取得して、過去数十年[3, 17]のオントロジーを構築した。 0.68
The last decade witnessed significant progress in the field of information extraction from web with projects such as DBpedia, Freebase and others. 過去10年間、DBpedia、Freebaseなどのプロジェクトにより、Webからの情報抽出の分野で大きな進歩を遂げました。 0.73
The work of Mitchell et. ミッチェルらの作品。 0.41
al [19] known as ‘NELL’ states that it is a never-ending system to learn from web, their work bootstraps knowledge graphs on a continuous basis. として知られるal[19]は、webから学ぶことは決して終わらないシステムであり、彼らの作業はナレッジグラフを継続的にブートストラップする。 0.69
Tools such as ReVerb [7] and OLLIE [28] were based on open information systems to extract a triple from a sentence using syntactic and lexical patterns. ReVerb [7] や OLLIE [28] などのツールはオープン情報システムに基づいて,構文パターンと語彙パターンを用いて文からトリプルを抽出する。 0.80
Although these approaches extracted triples from unstructured text using shallow and fast models, they do not handle ambiguity while entity mapping and do not learn expressive features compared to deep and multi-layer models. これらのアプローチは、浅層および高速なモデルを用いて非構造化テキストから三重項を抽出するが、エンティティマッピング中に曖昧さを扱わず、深層および多層モデルと比較して表現的特徴を学習しない。 0.68
The ML models based on probabilistic, neural networks and others were also explored for ontology enrichment from text [17, 22, 23]. テキスト [17, 22, 23] から, 確率的, ニューラルネットワークなどに基づくMLモデルについても, オントロジーの富化について検討した。 0.70
In 2017, Wang et al [33] conducted a survey on knowledge graph completion, entity classification and resolution, and relation extraction. 2017年、Wang et al [33]は知識グラフの完成、エンティティの分類と解決、および関係抽出に関する調査を実施しました。 0.68
The study classified embedding techniques into translational distance models and semantic matching models. 本研究は翻訳距離モデルと意味マッチングモデルへの埋め込み手法を分類した。 0.70
The study also stated that additional information in the form of entity types, textual descriptions, relation paths and logical rules strengthen the research. 研究はまた、エンティティタイプ、テキスト記述、関係パス、および論理的ルールの形での追加情報が研究を強化することも述べました。 0.67
Deep learning models such as CNN [5], LSTM [16, 20] and variants were used to construct knowledge graphs from text as they carry memory cells and forget gates to build the context and reduce noise. CNN [5], LSTM [16, 20] などの深層学習モデルを用いて, テキストから知識グラフを構築し, メモリセルを運び, ゲートを忘れ, コンテキストを構築し, ノイズを低減する。 0.80
Vedula et al. Vedula et al。 0.80
[32] proposed an approach to bootstrap newer ontologies from related domains. 32] 関連ドメインから新しいオントロジーを起動するアプローチを提案した。 0.72
Some of the recent approaches are based on Word2Vec [34] and its variants such as Phrase2Vec or Doc2Vec that use distributional similarities to identify concepts to enrich an ontology. 最近のアプローチのいくつかは、Word2Vec [34]とそのバリエーション(Phrase2VecやDoc2Vecなど)に基づいており、分散類似性を使用して概念を特定してオントロジーを豊かにする。
訳抜け防止モード: 最近のアプローチのいくつかは Word2Vec [34 ] に基づいている。 Phrase2VecやDoc2Vecのような変種は 分布の類似性を使って 概念を識別し オントロジーを豊かにする
0.67
However, these approaches underperform in the extraction of concepts embedded in words, phrases and sentences due to their inability to adequately characterize context. しかし、これらのアプローチは、文脈を適切に特徴付けることができないため、単語、フレーズ、および文に埋め込まれた概念の抽出に劣る。 0.57
Compared to Word2Vec and its variants, Universal Sentence Encoder (USE) [4] stands promising to identify concepts in long phrases as it encodes text into high dimensional vectors for semantic similarity. Word2Vecとその変種と比較して、Universal Sentence Encoder (USE) [4] は、意味的類似性のためにテキストを高次元ベクトルにエンコードし、長いフレーズのコンセプトを特定することを約束しています。 0.68
Lately, researchers [9] are exploring USE to produce sentence embeddings and deduce semantic closeness in queries. 近年, [9] 研究者は USE を用いて文の埋め込みを生成し,クエリのセマンティック・クローズネスを推定している。
訳抜け防止モード: 最近 研究者[9]は 文埋め込みを生成し、クエリにおける意味的近さを推定する。
0.63
Although, transformer-based models such as BERT and XLNet [6, 18] are of interest to ontology enrichment researchers, training them to a domain is effort intensive. しかし,BERT や XLNet [6, 18] のようなトランスフォーマーベースのモデルは,オントロジーに富む研究者にとって興味があり,それをドメインにトレーニングすることは熱心である。 0.64
The literature to enrich security ontologies from text drew attention with OASIS’s STIX/TAXII standardization and open source threat intelligence. OASISのSTIX/TAXII標準化とオープンソースの脅威インテリジェンスにより、テキストからセキュリティオントロジーを強化する文献が注目を集めました。 0.63
Most of the current work on security ontologies from text (construction or enrichment) were based on usage of string, substring, pre-fix and post-fix matching of terms, Word2Vec and other basic ML models [21,23,31]. テキスト(コンストラクションやエンリッチメント)からのセキュリティオントロジーに関する現在の作業のほとんどは、文字列、サブストリング、Word2Vecおよびその他の基本的なMLモデル(21,23,31)の事前修正とポストフィックスマッチングの使用に基づいていた。 0.70
In ontologies as well, the deep learning approaches based on recurrent neural networks are trending because of オントロジーにおいても,リカレントニューラルネットワークに基づくディープラーニングアプローチがトレンドとなっている。 0.75
英語(論文から抽出)日本語訳スコア
their ability to build the context over multiple words [10, 14]. 複数の単語 [10, 14] でコンテキストを構築する能力です 0.66
The research of Houssem et al. Houssemらの研究。 0.46
[10] used LSTM for population of security ontologies. 10] セキュリティオントロジーの人口にLSTMを使用しました。 0.72
However, the details to create corpus, handle phrases and robustness of the approach were not elaborated, only 40 entities were used in the model. しかし、コーパスを作成するための詳細、ハンドリングフレーズ、アプローチの堅牢性は詳細化されず、モデルで40のエンティティのみが使用されました。 0.67
The literature revealed that security ontologies based on ISO 27001 [8] and MITRE Corporation’s cyber security effort [31] were most referred. 文献によると、ISO 27001[8]とMITRE Corporationのサイバーセキュリティ取り組み[31]に基づくセキュリティオントロジーが最もよく言及されている。 0.77
OntoEnricher Onto Enricher 0.71
5 3 Ontology Enrichment Approach 5 3 オントロジーエンリッチメントアプローチ 0.63
The proposed ontology enrichment approach enriches a seed ontology with concepts, relations and instances extracted from unstructured text. 提案したオントロジーエンリッチメントアプローチは、未構造化テキストから抽出された概念、関係、例を種オントロジーに富ませる。 0.53
As shown in Figure 1, the ontology enrichment approach consists of four stages: (i) DatasetCreation : Creation of a training dataset by extracting and curating related terms ontology (ii) CorpusCreation : Creation of a domain-specific training corpus by parsing Wikipedia dump using various filtering measures (iii) T raining : Training OntoEnricher for relation classification of term pairs using training dataset and corpus, and (iv) T esting : Testing the model by enriching the ontology from domain-specific webpages. As shown in Figure 1, the ontology enrichment approach consists of four stages: (i) DatasetCreation : Creation of a training dataset by extracting and curating related terms ontology (ii) CorpusCreation : Creation of a domain-specific training corpus by parsing Wikipedia dump using various filtering measures (iii) T raining : Training OntoEnricher for relation classification of term pairs using training dataset and corpus, and (iv) T esting : Testing the model by enriching the ontology from domain-specific webpages. 0.95
from DBpedia for DBpediaから ですから 0.67
all concepts in the Fig. 全部 概念 では フィギュア。 0.67
1. Approach used for Ontology Enrichment 1. オントロジー濃縮のためのアプローチ 0.76
英語(論文から抽出)日本語訳スコア
6 Sanagavarapu et al. 6 Sanagavarapu et al。 0.81
3.1 Stage 1: Creation of Dataset The information security seed ontology is based on ISO 27001 [8]. 3.1 ステージ1: データセットの作成 情報セキュリティシードオントロジーはISO 27001 [8] に基づいている。 0.83
The standard ISO 27001:2015 [12] has 114 control across 14 groups. ISO 27001:2015 [12]は14グループに114の制御があります。 0.78
These groups contain controls related to ‘Human Resources’, ‘Asset Management’, ‘Access Control’, ‘Cryptography’, ‘Physical and environmental’, ‘Operations’, ‘Communications’, ‘System development and acquisition’, ‘Information security incident management’, ‘Compliance’, ‘Security Policies’ and ‘Security organisation’. これらのグループには、「Human Resources」、「Asset Management」、「Access Control」、「Cryptography」、「Physical and Environmental」、「Operations」、「Communications」、「System Development and acquisition」、「Information Security Incident Management」、「Compliance」、「Security Policies」、「Security Organization」に関連するコントロールが含まれています。 0.75
These groups and controls are represented as 408 concepts in the security ontology to protect assets from vulnerabilities and threats. これらのグループとコントロールは、脆弱性や脅威から資産を保護するためのセキュリティオントロジーにおける408の概念として表現される。 0.63
relations’, ‘Supplier 関係」。 「供給者」 0.58
These 408 concepts extracted from security ontology are used to query related terms, namely hypernyms and hyponyms, from DBpedia. セキュリティオントロジーから抽出されたこれらの408概念は、DBpediaからハイパーネムや偽名といった関連する用語をクエリするために使用される。
訳抜け防止モード: セキュリティオントロジーから抽出された408の概念は dbpediaから関連用語、すなわちハイパーニームと偽語をクエリする。
0.69
DBpedia contains over 5 million entities, allows querying of semantic relationships, concepts and properties encoded in the form of RDF triples. DBpediaには500万以上のエンティティがあり、RDFトリプルの形式でエンコードされた意味的関係、概念、プロパティのクエリを可能にする。 0.52
Typically, the RDF triples (subject-verb-object ) in an ontology contain a ‘verb’ relationship between concepts. 通常、オントロジーにおけるRDF三重項(対象-動詞-対象)は概念間の「動詞」関係を含む。 0.62
The verbs are typically domain-specific and unavailable in general-purpose knowledge graphs like DBPedia. 動詞は通常ドメイン固有であり、DBPediaのような汎用知識グラフでは利用できない。 0.62
The hypernyms and hyponyms, which denote ‘is-a’ relationship between concepts, are easily available in DBPedia and widely used in ontologies, making these relations an ideal choice to demonstrate our approach as a proof-of-concept. 概念間の「is-a」関係を表すハイパーネームと偽名は、DBPediaで容易に利用でき、オントロジーで広く利用されているため、これらの関係は概念実証として我々のアプローチを実証するのに理想的な選択である。 0.55
The SPARQL queries to extract hypernyms and hyponyms from DBpedia for each of the concepts in the security ontology are given below: SELECT * WHERE {<http://dbpedia.org/r esource/"""+ concept + """> <http://purl.org/ling uistics/gold/hyperny m> ?hypernyms} SELECT * WHERE {<http://dbpedia.org/r esource/"""+ concept + ""> <http://purl.org/ling uistics/gold/hyperny m> ?hypernyms}
訳抜け防止モード: SPARQLクエリは、セキュリティオントロジーの各概念について、DBpediaからハイパーニムと偽名を抽出します。SELECT * WHERE { < http://dbpedia.org/r esource/""""+コンセプト。 + " " " > < http://purl.org/ling uistics/gold/hyperny m > ? hypernyms }
0.82
SELECT * WHERE {?hypernyms <http://purl.org/ling uistics/gold/hyperny m> <http://dbpedia.org/r esource/"""+ concept + """> } The extracted terms obtained as a result of these queries are converted to triples of the form (a, b, label) where a denotes the ontology concept, b denotes the DBPedia term and label determines the DBPedia relation between a and b. where * where {?hypernyms <http://purl.org/ling uistics/gold/hyperny m> <http://dbpedia.org/r esource/""+ concept + ""> } これらのクエリの結果得られた単語は、aがオントロジーの概念を表し、bがdbpediaの項を示し、ラベルがaとbの間のdbpedia関係を決定する(a, b, label)。
訳抜け防止モード: SELECT * WHERE { ? hypernyms < http://purl.org/ling uistics/gold/hyperny m > < http://dbpedia.org/r esource/""+ concept + " " " " > } これらのクエリの結果得られた抽出された用語は、オントロジーの概念を表す形(a, b, label )のトリプルに変換される。 b は DBPedia 項を表し、ラベルは a と b の間の DBPedia 関係を決定する。
0.82
This leads to a dataset of 97,425 triples. これによりデータセットは97,425トリプルになる。 0.67
These triples are then curated by three domain experts and the authors to mark unrelated terms as ‘none’. これらのトリプルは3つのドメインの専門家と著者によってキュレーションされ、無関係な用語を“None”とマークする。 0.56
This includes pairs that are not related to the domain and pairs that are not related to each other, as both these cases are not needed for ontology enrichment. これには、ドメインと関係のないペアと、関係のないペアが含まれており、どちらもオントロジーの富化には必要ではない。
訳抜け防止モード: これにはペアが含まれます。 互いに関係のないドメインとペアに関係ありません どちらもオントロジーの豊かさには必要ありません
0.58
In addition, since DBPedia often categorizes ontological instances under ‘hyponyms’, some pairs are separately labelled as ‘instances’ if b is an instance of a and ‘concept’ if b denotes the concept of which a is an instance. さらにdbpediaは、しばしば 'hyponyms' の下でオントロジなインスタンスを分類するので、b が a のインスタンスであれば 'instances'、b が a のインスタンスの概念を表すなら 'concept' と別々にラベル付けされる。 0.78
The terms classified include names of experts, organizations, products and tools, attacks, vulnerabilities, malware, virus and many others. 分類された用語には専門家、組織、製品、ツール、攻撃、脆弱性、マルウェア、ウイルスなどが含まれる。 0.69
Finally, since the number of ‘none’ pairs (89,820) was significantly higher than the number of ‘non-none’ (7,605) pairs, we sorted the ‘none’ pairs in order of increasing similarity and filtered out the first 5% of ‘none’ pairs, which was experimentally determined to yield better results. 最後に、「none」ペア数(89,820)が「non-none」ペア数(7,605)よりも有意に高かったため、類似性を高めるために「none」ペアをソートし、「none」ペアの最初の5%をフィルタリングしました。
訳抜け防止モード: 最後に, 'non' 対 (89,820 ) は 'non-non' 対 (7,605 ) よりも有意に高かった。 類似性を高めるために、私たちは‘No ’ペアをソートしました そして、最初の5%の‘No ’ペアをフィルタした。 実験によって より良い結果が得られました
0.68
The Table 1 shows the final composition of our dataset after the described stages of extraction, curation and filtering. 表1は、抽出、キュレーション、フィルタリングの段階で記述されたデータセットの最終構成を示す。 0.70
英語(論文から抽出)日本語訳スコア
Table 1. Composition of the Dataset 表1。 データセットの構成 0.68
OntoEnricher Onto Enricher 0.71
7 Relationship Count Hypernymy 2,939 794 Hyponymy 2,685 Instances Concepts 1,187 4,490 None Total 12,096 7 関連 ハイパーニミー 2,939 794 ハイポニミー 2,685 インスタンス 概念 1,187 4,490 合計 12,096 0.71
3.2 Stage 2: Creation of Corpus 3.2 ステージ2:コーパスの作成 0.79
Once the training dataset is created, a training corpus to provide linguistic information for each of the terms in the dataset is extracted. トレーニングデータセットが作成されると、データセットの各用語について言語情報を提供するトレーニングコーパスが抽出される。 0.84
We use Wikipedia as it is moderated and structured for model training. モデルトレーニングのための適度で構造化されたウィキペディアを使用します。 0.65
The DBPedia is a part of the Wikipedia project, and therefore assures unambigous articles of all the extracted dataset terms. DBPediaはウィキペディアプロジェクトの一部であり、抽出された全てのデータセット項の曖昧な記事を保証する。 0.87
As a first step, we extract all the corresponding Wikipedia articles for the terms in the dataset and add them to the corpus. 最初のステップとして、データセット内の用語の対応するすべてのWikipediaの記事を抽出し、コーパスに追加します。 0.77
In addition, we extract other articles related to the information security ontology domain. また、情報セキュリティオントロジードメインに関連する他の記事を抽出します。 0.65
This is done by comparing the Doc2Vec [15] similarity of each article with the Wikipedia article on ‘Information Security’4 and then filtering in articles with a similarity score higher than a certain threshold (0.27 after manual validation). これは各記事のdoc2vec [15] 類似度とwikipediaの記事の「情報セキュリティ」4を比較し、あるしきい値より高い類似度スコア(手動検証後の0.27)でフィルタリングすることで行われる。 0.77
This threshold, is determined to optimize classification accuracy on a small validation corpus, extracted from the dump. この閾値はダンプから抽出された小さな検証コーパスで分類精度を最適化するために決定される。 0.82
The two-step filtering described above yielded an information security training corpus, of total size 2.6 GB. 上記の2段階のフィルタリングにより、情報セキュリティ訓練コーパスの合計サイズは2.6GBとなった。 0.70
in turn, 3.3 Stage 3: Training OntoEnricher 順番に 3.3 stage 3: training ontoenricher 0.59
The training dataset and corpus are parsed to generate various dependency paths to connect each pair of terms provided in the training dataset. トレーニングデータセットとコーパスを解析して、トレーニングデータセットに提供される各ペアの用語を接続する、さまざまな依存性パスを生成する。 0.66
Here, ‘dependency paths’ refers to the multi-set of all paths that connect a pair of terms in the training corpus. ここでの‘依存関係パス’は、トレーニングコーパス内の用語のペアをつなぐ、すべてのパスのマルチセットを指す。 0.74
These paths are encoded as a sequence of nodes, where each node is a 4-tuple of the form (word, P OS_tag, dep_tag, dir). これらのパスはノードのシーケンスとしてエンコードされ、各ノードはフォーム(word, P OS_tag, dep_tag, dir)の4倍です。 0.78
The P OS_tag and dep_tag denote the Part of Speech (POS) and dependency tags of the word respectively, while dir denotes the direction of the edge connecting it to the next node in that dependency path. P OS_tag と dep_tag はそれぞれ音声の一部 (POS) と単語の依存関係タグを表し、dir はその依存関係パスの次のノードに接続するエッジの方向を表します。 0.84
The term pairs along with the extracted dependency paths between them are passed to OntoEnricher for training. 抽出された依存関係パスのペアは、トレーニングのためにOntoEnricherに渡される。 0.65
The first layer in the proposed model 提案モデルにおける第1層 0.88
is the embedding layer. The distributional embeddings (words) are obtained using a pre-trained state-of-the-art Universal Sentence Encoder (USE) [4] transformer model. 埋め込み層です The distributional embeddeds (words) are obtained using a pre-trained state-of-the-art Universal Sentence Encoder (USE) [4] transformer model。 0.60
This model is preferred over other vocabulary-based distributional models such as those belonging to the Word2Vec family as it returns distributional embeddings for not just smaller words, but also compound 4 https://en.wikipedia .org/wiki/Informatio n_security このモデルは、Word2Vecファミリーに属するような他の語彙ベースの分散モデルよりも好まれており、小さな単語だけでなく、4 https://en.wikipedia .org/wiki/Informatio n_securityも含む。
訳抜け防止モード: このモデルは、word2vecファミリーに属するような他の語彙ベースの分散モデルよりも好まれる。 また、compound 4 https://en.wikipedia .org/wiki/informatio n_security
0.77
for the terms ですから 用語は 0.62
英語(論文から抽出)日本語訳スコア
8 Sanagavarapu et al. 8 Sanagavarapu et al。 0.81
words, phrases and sentences. In addition, USE is pretrained on Wikipedia, among other corpora, making it ideally suited for our task. 単語、句、文。 さらに、USEはウィキペディアなどのコーポラで事前訓練されており、私たちのタスクに最適です。 0.61
Apart from pre-trained word embeddings, the embeddings for the POS tags, dependency tags and direction tags are obtained from trainable embedding layers. 事前訓練された単語の埋め込みとは別に、トレーニング可能な埋め込み層からPOSタグ、依存性タグ、方向タグの埋め込みが得られる。 0.57
The node embeddings, constructed from the concatenation of words, POS, dependency, and direction tag embeddings are arranged in a sequence to obtain the path embeddings. 単語、POS、依存関係、および方向タグの埋め込みの連結から構築されたノード埋め込みは、パス埋め込みを取得するためにシーケンスに配置されます。 0.67
A dropout layer is applied after each of the embeddings. 各埋め込みの後にドロップアウト層が適用される。 0.77
The path embeddings for each path connecting the term pair are then input to a bidirectional, two-layer LSTM which trains on a sequence of linguistically and semantically encoded nodes and learns the type of sequences that characterize a particular kind of relation. 項対を接続する各経路の埋め込みは双方向の2層LSTMに入力され、言語的および意味的に符号化されたノードのシーケンスを訓練し、特定の種類の関係を特徴付けるシーケンスの種類を学ぶ。 0.80
The bidirectional LSTM allows the network to have both backward and forward information about the path embeddings at every time step, while the two layers enable capturing of more complex relations among dependency paths. 双方向LSTMにより、ネットワークは各ステップでパス埋め込みに関する情報を前後に保持できます。一方、2つのレイヤは依存関係パス間のより複雑な関係をキャプチャできます。 0.78
The output of the last hidden state of the LSTM is taken as the path representation. LSTMの最後の非表示状態の出力をパス表現として取ります。 0.73
Since a pair of terms may have multiple paths between them, a weighted sum of these path representations is taken by using the path counts as weights, to yield a final context vector. 一対の項がそれらの間の複数の経路を持つので、これらの経路表現の重み付き和は、経路カウントを重みとして、最終的な文脈ベクトルを得る。 0.71
This context vector, that encodes syntactic and linguistic information, is passed through a dropout layer and then concatenated with the distributional embeddings of both terms in order to encode semantic information as well. この文脈ベクトルは構文的および言語的情報をエンコードし、ドロップアウト層を通過し、意味的情報をエンコードするために両方の用語の分布的埋め込みと結合する。 0.72
The concatenated vector is then passed through two Feedfoward Neural Networks, with a ReLU layer in between, to yield the final class probability vector. 連結ベクトルは、2つのフィードフォワードニューラルネットワークを介して渡され、ReLU層が中間にあり、最終的なクラス確率ベクトルが得られる。 0.78
The class with maximum probability is output as the predicted relation between the term pair. 最大確率のクラスは、項対間の予測関係として出力される。 0.84
3.4 Stage 4: Testing OntoEnricher 3.4 stage 4: testing onenricher 0.87
The procedure to extract concepts and instances from (web page) text, during the testing stage is detailed here. テストの段階で(Webページ)テキストから概念とインスタンスを抽出する手順は、ここで詳細に説明します。 0.77
To avoid usage of every unstructured (web page) text to enrich an ontology, a lightweight evaluation technique [25] that checks for sufficiency of new security terms is deployed. オントロジーを豊かにするために、すべての非構造化(webページ)テキストの使用を避けるために、新しいセキュリティ用語の不十分性をチェックする軽量評価技術[25]をデプロイする。 0.66
After passing the sufficiency evaluation, as a pre-processing stage, co-reference resolution is applied and then noun chunks are extracted from the web page. 満足度評価をパスした後、前処理段階として共参照解決を行い、webページから名詞チャンクを抽出する。 0.62
A cartesian (nC2) product is then taken of the extracted noun chunks to construct potential term pairs. カルテシアン(nC2)積は抽出された名詞チャンクから取り出され、潜在的項対を構成する。 0.61
However, a cartesian product to OntoEnricher is computationally expensive and also leads to error propagation, we apply a two-stage filtering that (a) checks if the noun chunks are ‘sufficiently’ related to Information Security and (b) if they are ‘sufficiently’ related to each other. しかし、オンテンリヒャーへのデカルト積は計算コストが高く、エラー伝播にもつながり、(a)名詞チャンクが情報セキュリティに関連する「十分」であるかどうか、(b)相互に「十分」関係があるかどうかをチェックする2段階フィルタリングを適用する。 0.75
Both of these conditions are checked to compare distributional similarity using USE against experimentally determined threshold values. どちらの条件も、USEを用いた分布類似度を実験的に決定されたしきい値と比較するためにチェックされる。 0.61
The sufficiently similar term pairs are then input to the pre-trained model to classify the relationship. 十分に類似した項対が事前訓練されたモデルに入力され、関係を分類する。 0.65
The pairs classified as ‘None’ are discarded and the rest are converted to RDF triples for security ontology enrichment. Noone”に分類されたペアは破棄され、残りはセキュリティオントロジーの強化のためにRDFトリプルに変換される。
訳抜け防止モード: None 」に分類されるペアは破棄される 残りはセキュリティオントロジーの強化のためにRDFトリプルに変換される。
0.69
英語(論文から抽出)日本語訳スコア
OntoEnricher Onto Enricher 0.71
9 Fig. 2. 9 フィギュア。 2. 0.71
Example illustrating Ontology Enrichment approach Ontology Enrichmentアプローチの例 0.77
英語(論文から抽出)日本語訳スコア
10 Sanagavarapu et al. 10 Sanagavarapu et al。 0.81
3.5 Example The Figure 2 illustrates the ontology enrichment approach with an example. 3.5例 図2は、オントロジーの富化アプローチを例に示します。 0.69
Consider ‘Real-time adaptive security’ (R-TAS), which is a concept present in the security ontology. セキュリティオントロジーに存在する概念である「リアルタイム適応セキュリティ」(R-TAS)を検討してください。 0.72
The corresponding article in DBPedia, ‘Real-time adaptive security’ has ‘model’ as its hypernymy entry, which is returned using a SPARQL query. DBPediaの対応する記事である‘Real-time Adaptive Security’は、ハイパーニーミーエントリとして‘model’を持ち、SPARQLクエリを使って返される。 0.78
The security corpus extracted from Wikipedia dump using Doc2Vec filter contains multiple paired mentions of these terms, out of which one article contains two mentions. Doc2Vecフィルタを使用してWikipediaダンプから抽出されたセキュリティコーパスには、これらの用語の複数のペアの言及が含まれています。 0.69
The corpus, the aforementioned sentences, are passed to the SpaCy5 dependency parser and all corresponding dependency paths to connect every extracted term pair. 上記の文であるコーパスは、抽出された各項ペアを接続するために、SpaCy5依存パーサと対応するすべての依存関係パスに渡される。 0.63
These dependency paths, which contain encoded linguistic information, are passed to a serialization layer that converts the dependency graph into a series of nodes to form the input to OntoEnricher. エンコードされた言語情報を含むこれらの依存関係パスは、依存関係グラフを一連のノードに変換するシリアライズ層に渡され、入力をオンテンリヒャーに変換する。 0.78
lemmatized, lemmatized。 0.63
root word to enable meaningful 意味のある語を根づける 0.64
The serialization layer reduces the word in every node in the dependency path to its training and generalization. シリアライゼーション層は、そのトレーニングと一般化への依存経路の各ノードにおける単語を縮小する。 0.78
Thus, ‘Real-time adaptive security’ is reduced to ‘security’ and ‘is’ is reduced to ‘be’. したがって、‘Real-time Adaptive Security’は‘Security’に、‘is’は‘be’に削減される。 0.80
It also converts every node to a feature vector. また、全てのノードを特徴ベクトルに変換する。 0.82
The ‘Real-time adaptive security’ is converted to a feature vector that uses ‘security’ as the word, ‘PROPN’ as POS tag, ‘nsubj’ as dependency tag and ‘+’ denotes the direction of the edge connecting it to the lowest common root node between the term pair. リアルタイム適応セキュリティ’は、‘セキュリティ’を単語として使用する機能ベクタ、POSタグとして‘PROPN’、依存性タグとして‘nsubj’、そして‘+’は、用語ペア間の最も低い共通ルートノードに接続するエッジの方向を表す。
訳抜け防止モード: Real - Time Adaptive Security ’ は,‘ Security ’ をワードとして使用する機能ベクタに変換される。 POSタグとして‘ PROPN ’、依存タグとして ‘ nsubj ’ とすると、' + ' は 対 の間の最も低い共通根ノードに接続するエッジの方向を表す。
0.83
Similarly, the next word ‘be’ is a verb and a root word of ‘is’ does not have any direction ‘∼’. 同様に、次の単語 ‘be’ は動詞であり、‘is’ の根源語には、任意の方向 ‘*’ がありません。 0.78
The last word of this path, ‘model’, has ‘NOUN’ as POS tag, ‘attr’ as dependency tag and ‘+’ as direction of the arrow going away from ‘model’ to ‘is’. このパスの最後の単語である‘model’は、POSタグとして‘NOUN’、依存タグとして‘attr’、矢印の方向として‘model’から‘is’となる‘+’を持つ。 0.84
The same approach is followed for the second dependency path and the nodes are sequenced similarly. 同じアプローチが第2の依存性パスに続き、ノードも同様にシーケンスされる。 0.81
These two paths are then passed to the embedding layer that calculates (i) USE embedding for word (ii) POS tag embedding (iii) dependency tag embedding and (iv) direction embedding. これらの2つのパスは、(i)単語(ii)posタグ埋め込み(iii)依存性タグ埋め込みおよび(iv)方向埋め込みの埋め込みを使用する埋め込み層に渡される。 0.75
The last 3 embeddings are trainable while the word embeddings are pre-trained using USE. 最後の3つの組込みはトレーニング可能で、単語組込みは使用を使って事前トレーニングされる。 0.53
These are concatenated together to yield a node embedding. これらは結合され、ノードが埋め込まれる。 0.69
All the paths (node sequences) that connect term pair are passed as input to Bidirectional two-layer LSTM. 項対を接続する全ての経路(ノードシーケンス)は、双方向二層LSTMへの入力として渡される。 0.74
In this example, both the paths connecting ‘Real-Time Adaptive Security’ and ‘model’ are input to the LSTM, post which the last hidden state is taken as path-wise contextual output. この例では、‘リアルタイム適応セキュリティ’と‘モデル’をつなぐパスがlstmに入力され、最後に隠された状態がパスごとにコンテキストアウトプットとして取り込まれる。 0.68
A weighted sum of these paths is then calculated using the frequency of occurrence as weights to yield the final context vector, this has the encoded linguistic information of the paths is ‘Real-Time Adapative concatenated with the distributional embeddings of Security’ and ‘model’. これらの経路の重み付き和は、最終的な文脈ベクトルを生成する重みとして発生頻度を用いて計算され、経路の符号化された言語情報は「セキュリティの分布的埋め込みと結合されたリアルタイムのアダプティブ」と「モデル」である。 0.73
Reducing words to their root form during serialization stage enables to construct a contextualized representation. シリアライゼーションの段階で単語を根元形式に還元することで、コンテキスト化された表現を構築することができる。
訳抜け防止モード: 連載段階における単語の根元への還元 コンテキスト化された表現を構築できます。
0.68
The characterized paths constitutes a specific relation and the most frequent ones, while distributional word and phrase embeddings enable semantic relevance and specificity at a conceptual level. 特徴づけられたパスは、特定の関係と最も頻繁なものを構成する一方、分布語とフレーズ埋め込みは、概念レベルでの意味的関連性と特異性を可能にする。 0.60
This concatenated vector denotes semantic この連結ベクトルは意味を表す 0.71
‘R-TAS’ and ‘model’. R-TAS」と「モデル」。 0.78
This context vector that connect この文脈ベクトルは 繋がって 0.74
5 https://spacy.io/ 5 https://spacy.io/ 0.59
英語(論文から抽出)日本語訳スコア
OntoEnricher Onto Enricher 0.71
11 and linguistic information that are passed to 2 Feedforward Neural Networks with a ReLU layer in between, yielding a final class probability vector as output. 11 そして、ReLU層を挟んだ2つのフィードフォワードニューラルネットワークに渡される言語情報から、最終的なクラス確率ベクトルを出力とする。 0.81
This class probability vector is trained to identify relationship between ‘model’ and ‘Real-Time Adapative Security’ as hypernymy. このクラス確率ベクトルは'model'と'Real-Time Adapative Security'の関係をハイパーネミーとして識別するために訓練される。
訳抜け防止モード: このクラス確率ベクトルは モデル’と‘real-time adapative security’の関係をhypernymyとして識別する。
0.80
4 Experimental Settings & Results We primarily experimented with two ontologies, namely the ISO 27001 based Information Security and Stanford Pizza ontologies. 4 実験設定と結果 私たちは主に2つのオントロジー、すなわちISO 27001ベースの情報セキュリティとスタンフォードピザオントロジーを実験しました。 0.72
While the former is the focus of the paper and our use case in terms of analyzing threats and attack surfaces, we experiment with the latter as well to demonstrate generalizability of our approach. 前者は脅威や攻撃面の分析の観点からの論文とユースケースの焦点であるが,本手法の汎用性を実証するために,後者を用いて実験を行った。 0.79
While the security corpus is 2.8GB long, the pizza corpus is significantly smaller and only 95MB. セキュリティコーパスは2.8GBですが、ピザコーパスはかなり小さく、わずか95MBです。 0.53
This can be attributed to the fact that the pizza ontology represents a very narrow domain and thus contains few relevant Wiki articles, while the security ontology contains much broader, systems-level concepts, information about assets, controls etc that return a variety of related articles. これは、ピザオントロジーが非常に狭いドメインであり、ウィキの記事はほとんど含まれていないという事実に起因し得るが、セキュリティオントロジーには、より広いシステムレベルの概念、資産に関する情報、さまざまな関連記事を返すコントロールなどが含まれる。 0.61
We implemented OntoEnricher using the deep learning library Pytorch with ‘0’ as random seed number for consistency in results. 結果整合性のためのランダムシード番号として、ディープラーニングライブラリのPytorchを使ってOntoEnricherを実装しました。 0.62
Also, we used various other Python libraries such as Pronto6 to extract ontology terms, Wikiextractor7 to extract articles from Wikipedia dump, spaCy for dependency graph extraction, and Tensorflow-Hub to load Universal Sentence Encoder. また、Pronto6のようなPythonライブラリを使ってオントロジー用語を抽出し、Wikiextractor7でWikipediaダンプから記事を抽出し、依存グラフを抽出し、Tensorflow-HubでUniversal Sentence Encoderをロードしました。 0.75
We evaluated the performance of OntoEnricher on three diverse test datasets: OntoEnricherを3つの多様なテストデータセットで評価した。 0.68
1. DBPedia test dataset: This is created by randomly extracting 10% of the training dataset extracted from DBpedia. 1. DBPediaテストデータセット: DBpediaから抽出されたトレーニングデータセットの10%をランダムに抽出することによって作成される。 0.75
It mostly consists of small-medium length words. ほとんどが中小の単語である。 0.54
2. ‘Knocked-out’ test dataset: This is created by knocking out concepts and relations from the ontology. 2. ノックアウト」テストデータセット: これはオントロジーから概念と関係をノックアウトすることによって作成されます。 0.78
This evaluates the ability of OntoEnricher to identify multi-word or phrase-level concepts, as is common in the Security Ontology, and identification of highly-domain specific, non-English terms as in the Pizza Ontology. これは、セキュリティオントロジーで一般的なマルチワードまたはフレーズレベルの概念を識別できるOntoEnricherの能力を評価し、ピザオントロジーのように非常にドメイン固有の、英語以外の用語を識別します。 0.61
3. Instance dataset: This is created by extracting text from security-domain related webpages. 3. インスタンスデータセット: セキュリティドメインに関連するWebページからテキストを抽出して作成する。 0.79
The Top 10 vulnerability related web pages from OWASP and product pages on ‘firewall’ are extracted to test the model. OWASPの脆弱性関連Webページトップ10と‘firewall’の製品ページを抽出してモデルをテストします。 0.80
The ability to identify concepts and instances from web pages confirms that the approach can use text from public forums and other unstructured data sources to provide threat intelligence feeds. webページから概念やインスタンスを識別する能力は、このアプローチが公開フォーラムや他の非構造化データソースからのテキストを使用して脅威情報を提供することができることを確認している。 0.65
This evaluation was done without factoring sufficiency requirement [25] of new terms in the text to evaluate identification of ontology terms by OntoEnricher. この評価は onenricher によるオントロジー項の識別を評価するために,テキスト中の新しい用語の十分な必要条件 [25] を考慮せずに行った。 0.73
The grid search was used to experiment with and arrive at optimal values of various hyperparameters [30]. グリッドサーチは様々なハイパーパラメーター[30]の最適値の実験と到達に使用された。 0.79
These include hidden dimensions (120, 180, これには隠れた次元 (120, 180, 0.84
6 https://pypi.org/pro ject/pronto/ 7 https://github.com/a ttardi/wikiextractor 6 https://pypi.org/pro ject/pronto/ 7 https://github.com/a ttardi/wikiextractor 0.41
英語(論文から抽出)日本語訳スコア
12 Sanagavarapu et al. 12 Sanagavarapu et al。 0.81
200, 250, 300, 500, 900), input dimension of 2nd NN (60, 90, 120, 180, 300, 500), number of LSTM layers (1,2), activation functions (Softmax, ReLU, LogSoftmax), loss functions (NLL Loss, Cross Entropy loss), and learning and weight decay rates (0.001, 0.01). 200, 250, 300, 500, 900), 入力次元は第2 nn (60, 90, 120, 180, 300, 500), lstm 層数 (1,2), 活性化関数 (softmax, relu, logsoftmax), 損失関数 (nll損失, クロスエントロピー損失), 学習・減量率 (0.001, 0.01) である。 0.73
The experimentation data with various embeddings, epochs, learning rate, activation functions, hidden layers and the related results are available as spreadsheet on GitHub [30]. さまざまな埋め込み、エポック、学習率、アクティベーション関数、隠れたレイヤ、関連する実験データは、GitHub[30]でスプレッドシートとして公開されている。 0.69
The evaluation results of OntoEnricher on security and pizza ontologies are shown in Table 2. セキュリティとピザのオントロジーに関するOntoEnricherの評価結果を表2に示します。 0.74
We achieved competent and comparable scores on security ontology enrichment on all three datasets. 3つのデータセットすべてにおいて,セキュリティオントロジーの充実に関する有能かつ比較点を達成しました。 0.44
The test results with 10% test dataset performed better, while the test results on knockout concepts or information security related web pages are not far apart. テスト結果は10%テストデータセットで改善され、ノックアウトコンセプトや情報セキュリティ関連のWebページでのテスト結果はそれほど遠くない。 0.77
This confirms that performance does not dip in extraction of phrases, multi-word concepts and instances which is a key component missing from previous ontology enrichment approaches [10, 14, 23, 31]. これは,従来のオントロジーエンリッチメントアプローチ [10, 14, 23, 31] から欠落するキーコンポーネントであるフレーズや複数単語の概念,インスタンスの抽出において,性能が低下しないことを確認する。 0.78
As the input and output format of existing approaches comparison. 既存のアプローチの入力および出力フォーマットとしての比較を行う。 0.74
Additionally, in OntoEnricher, the number of terms and the size of the corpus used for training and testing are much larger. さらに、OntoEnricherでは、トレーニングおよびテストに使用される用語の数とコーパスのサイズがはるかに大きい。 0.64
The difference between Precision and Recall value is less, this indicates that terms are not skewed towards domain and establishes robustness of the proposed ontology enrichment approach. 精度とリコール値の差は小さく、項が領域に対して歪んでおらず、提案するオントロジエンリッチメントアプローチの頑健性を確立していることを示している。 0.62
Interestingly, the pizza enrichment results are better than security enrichment results, presumably due to the domain being narrow as mentioned earlier and concepts being easily identifiable as a consequence. 興味深いことに、ピザの富化結果は、前述のようにドメインが狭く、概念が容易に識別できるため、セキュリティの富化結果よりも優れている。 0.63
only performed qualitative are different, we 質的にのみ 私たちと違うのは 0.64
Table 2. Ontology Enrichment Results 表2。 Ontology Enrichment結果 0.78
Information Security Pizza 情報セキュリティ ピザ 0.75
Metrics Terms Accuracy Precision Recall F1-Score メトリクス 項精度リコールf1-score 0.66
DBPedia Knocked Out Web DBPedia Knocked Out Web 99 0.88 0.84 0.81 0.82 DBPediaがWeb DBPediaをノックアウト Web 99 0.88 0.84 0.81 0.82 0.68
1197 0.81 0.76 0.76 0.76 1197 0.81 0.76 0.76 0.76 0.50
5538 0.77 0.84 0.77 0.80 5538 0.77 0.84 0.77 0.80 0.50
85 0.79 0.99 0.79 0.88 85 0.79 0.99 0.79 0.88 0.50
153 0.83 0.84 0.73 0.78 153 0.83 0.84 0.73 0.78 0.50
791 0.99 0.81 0.91 0.86 791 0.99 0.81 0.91 0.86 0.50
Most of the existing ontology evaluation metrics [24] are extensions of Precision and Recall information retrieval metrics. 既存のオントロジー評価指標 [24] のほとんどは、精度とリコール情報検索指標の拡張である。 0.75
Hence, we measure precision score for k documents (shown in Table 3) to measure the consistency in enrichment of webpages. したがって、k文書(表3に示す)の精度スコアを測定し、ウェブページの充実の一貫性を測定します。 0.73
The scores indicate that the proposed approach can identify concepts for any large number of domain documents. スコアは、提案手法が多数のドメイン文書の概念を識別できることを示している。 0.75
The Figure 3 shows the relationship accuracy for each of the classes. 図3は、各クラスの関係精度を示しています。 0.84
It is observable that all relationships are classified equally and hypernymy classification seems to be relatively higher. すべての関係が等しく分類され、ハイパーニーミー分類が比較的高いことが観察可能である。 0.77
英語(論文から抽出)日本語訳スコア
Table 3. Precision scores for 20 Random Web Pages in Information Security 表3。 情報セキュリティにおける20のランダムWebページの精度スコア 0.80
OntoEnricher Onto Enricher 0.71
13 Web pages P@5 P@10 P@15 P@20 Score 0.84 13 WebページP@5 P@10 P@15 P@20 Score 0.84 0.89
0.89 0.80 0.82 0.89 0.80 0.82 0.59
Fig. 3. Accuracy on Class Identification フィギュア。 3. クラス識別の精度 0.66
5 Conclusion and Future Work 5 結論と今後の課題 0.79
The security ontology enrichment approach is comprehensive with an ability to handle new terms, changing domain content that includes concepts, relations and instances. セキュリティオントロジーのエンリッチメントアプローチは、概念や関係、インスタンスを含むドメイン内容の変更など、新しい用語を扱う機能を備えた包括的だ。 0.73
Usage of well accepted ISO 27001 based security ontology, an exhaustive data source such as DBpedia and Wikipedia, Universal Sentence Encoder for distributional embeddings and Bidirectional LSTM for sequential learning makes the approach robust and extensible for other domains. 広く受け入れられているISO 27001ベースのセキュリティオントロジー、DBpediaやWikipediaのような徹底したデータソース、分散埋め込みのためのUniversal Sentence Encoder、シーケンシャルラーニングのための双方向LSTMの使用は、他のドメインに対して堅牢で拡張可能である。 0.64
In the implemented enrichment approach, the concepts in seed ontology can be a single or multiple words, is an improvement from state-of-the-art. 実装されたエンリッチメントアプローチでは、種オントロジーの概念は1つまたは複数の単語になり得るが、最先端技術による改善である。 0.66
The approach also incorporated instances from unstructured text (web pages) so that organizations or individuals have flexibility to reason security ontologies for mitigation strategies, vulnerabilities assessment, attack graphs detection and many other use cases. このアプローチには、組織や個人が緩和戦略、脆弱性アセスメント、攻撃グラフ検出、その他多くのユースケースのセキュリティオントロジーを理由に柔軟性を持つように、非構造化テキスト(Webページ)からのインスタンスも組み込まれている。 0.62
The enriched security ontology may also be used by search engines to display relevant results, top trends in vulnerabilities, threats, attacks and controls. 強化されたセキュリティオントロジーは、検索エンジンが関連する結果、脆弱性、脅威、攻撃、およびコントロールのトップトレンドを表示するためにも使用できます。 0.58
We trained the model with 408 Information Security ontology terms, 97,425 DBpedia terms and 2.8 GB Wikipedia articles. 我々は408の情報セキュリティオントロジー用語、97,425のDBpedia用語、2.8GBのWikipedia記事でモデルをトレーニングした。 0.66
The model was tested with 20 random information security related web pages extracted from internet with an accuracy of 80% and an F1-score of 78%. モデルは、インターネットから抽出された20のランダムな情報セキュリティ関連ウェブページで80%の精度と78%のF1スコアでテストされました。 0.73
The approach was also trained and tested for ‘Pizza’ domain for generality. このアプローチは‘pizza’ドメインの一般性に関するトレーニングとテストも行われた。 0.65
The accuracy and the F1-score of the model to enrich Pizza ontology are 88% and 85%. ピザのオントロジーを豊かにするモデルの精度とF1スコアは88%と85%である。 0.74
While we achieved state-of-theart results implementing a robust approach, we plan to implement the following activities as future work - 堅牢なアプローチで最先端の成果を達成しながら、今後の取り組みとして以下の活動を実施する予定です。 0.65
英語(論文から抽出)日本語訳スコア
14 Sanagavarapu et al. 14 Sanagavarapu et al。 0.81
irrelevant terms. corpus beyond Wikipedia. 無関係な条件だ ウィキペディア以外のコーパス。 0.53
– Optimize the effort required to create DBPedia dataset such as filtering -フィルタリングなどのDBPediaデータセット作成に必要な労力を最適化する。 0.74
– Test the approach with other security ontologies and extend the training -他のセキュリティオントロジーでアプローチをテストし、トレーニングを拡張する 0.74
– Compare our results with other knowledge graph and ontology enrichment approaches after curation of input and output format of dataset and corpus. データセットとコーパスの入力および出力フォーマットのキュレーション後の結果と他の知識グラフおよびオントロジー強化アプローチを比較します。 0.78
– We understand the need for domain experts evaluation of an enriched ontology. – 豊富なオントロジーのドメインエキスパート評価の必要性を理解します。 0.69
However, manual intervention for evaluation is intensive and brings in various other dependencies. しかし、評価のための手動介入は集中的であり、他のさまざまな依存関係をもたらす。 0.53
As part of the future work, we propose to implement a syntactic and semantic evaluation with a easily configurable rules and AI models to reduce the manual effort. 今後の取り組みの一環として,手作業の労力を軽減するために,構成可能なルールとaiモデルを用いた構文的意味的評価の実装を提案する。 0.68
References 1. Al-Aswadi, F.N., Chan, H.Y., Gan, K.H. 参考文献 1. Al-Aswadi, F.N., Chan, H.Y., Gan, K.H. 0.75
: Automatic Ontology Construction from Text: a Review from Shallow to Deep Learning Trend. : テキストからの自動オントロジー構築:浅いから深い学習トレンドへのレビュー。 0.70
Artificial Intelligence Review pp. 人工知能のレビュー pp。 0.71
1–28 (2019) 1–28 (2019) 0.84
2. AlienVault: Open Threat Intelligence (Jan 2021), https://otx.alienvau lt.com/ 3. 2. AlienVault: Open Threat Intelligence (Jan 2021), https://otx.alienvau lt.com/ 3 0.87
Buitelaar, P., Cimiano, P., Magnini, B.: Ontology Learning from Text: Methods, Buitelaar, P., Cimiano, P., Magnini, B.: Ontology Learning from Text: Methods, 0.89
Evaluation and Applications, vol. 評価と応用, Vol。 0.63
123. IOS Press (2005) 123. IOS Press (2005) 0.85
4. Cer, D., Yang, Y., Kong, S.y., Hua, N., Limtiaco, N., John, R.S., Constant, N., Guajardo-Cespedes, M., Yuan, S., Tar, C., et al. 4. Cer, D., Yang, Y., Kong, S.y., Hua, N., Limtiaco, N., John, R.S., Constant, N., Guajardo-Cespedes, M., Yuan, S., Tar, C., など。 0.89
: Universal Sentence Encoder. ユニバーサル・センテンス・エンコーダ。 0.62
ArXiv preprint arXiv:1803.11175 (2018) ArXiv preprint arXiv:1803.11175 (2018) 0.75
5. Dettmers, T., Minervini, P., Stenetorp, P., Riedel, S.: Convolutional 2D Knowledge 5. Dettmers, T., Minervini, P., Stenetorp, P., Riedel, S.: Convolutional 2D Knowledge 0.89
Graph Embeddings. In: 32nd AAAI Conference on Artificial Intelligence (2018) グラフ埋め込み。 第32回 aaai conference on artificial intelligence (2018) に参加して 0.67
6. Ezen-Can, A.: A Comparison of LSTM and BERT for Small Corpus. 6. Ezen-Can, A.: Small Corpus における LSTM と BERT の比較 0.89
arXiv preprint arXiv プレプリント 0.83
arXiv:2009.05451 (2020) arXiv:2009.05451 (2020) 0.65
7. Fader, A., Soderland, S., Etzioni, O.: Identifying Relations for Open Information Extraction. 7. Fader, A., Soderland, S., Etzioni, O.: Identifying Relations for Open Information Extraction。 0.86
In: Proceedings of the Conference on Empirical Methods in Natural Language Processing. In:自然言語処理における経験的方法に関する会議の進行。 0.81
pp. 1535–1545. pp. 1535–1545. 0.78
ACL (2011) ACL (2011) 0.85
8. Fenz, S., Ekelhart, A.: Formalizing Information Security Knowledge. 8. Fenz, S., Ekelhart, A.: 情報セキュリティ知識の形式化。 0.86
In: Proceedings of the 4th International Symposium on Information, Computer, and Communications Security. 第4回情報・コンピュータ・通信安全国際シンポジウムに参加して 0.57
ACM (2009) ACM(2009年) 0.85
9. Ganesan, B., Dasgupta, R., Parekh, A., Patel, H., Reinwald, B.: A Neural Architecture for Person Ontology Population. 9. Ganesan, B., Dasgupta, R., Parekh, A., Patel, H., Reinwald, B.: A Neural Architecture for Person Ontology Population。 0.86
arXiv preprint arXiv:2001.08013 (2020) arXiv preprint arXiv:2001.08013 (2020) 0.75
10. Gasmi, H., Laval, J., Bouras, A.: Cold-start Cybersecurity Ontology Population using Information Extraction with LSTM. 10. Gasmi, H., Laval, J., Bouras, A.: LSTMによる情報抽出を用いたサイバーセキュリティオントロジーのコールドスタート人口。 0.81
In: International Conference on Cyber Security for Emerging Technologies. In: International Conference on Cyber Security for Emerging Technologies に参加。 0.93
pp. 1–6. IEEE (2019) pp. 1–6. IEEE (2019) 0.80
11. Iannacone, M., Bohn, S., Nakamura, G., Gerth, J., Huffer, K., Bridges, R., Ferragut, E., Goodall, J.: Developing an Ontology for Cyber Security Knowledge Graphs. 11. Iannacone, M., Bohn, S., Nakamura, G., Gerth, J., Huffer, K., Bridges, R., Ferragut, E., Goodall, J.: developing an Ontology for Cyber Security Knowledge Graphs。 0.85
In: Proceedings of the 10th Annual Cyber and Information Security Research Conference. 第10回サイバー・情報セキュリティ研究会議の開催。 0.49
pp. 1–4 (2015) pp. 1–4 (2015) 0.85
12. ISO/IEC 27001: Information Security Management (Jan 2021), https://www.iso. 12. ISO/IEC 27001: Information Security Management (Jan 2021), https://www.iso.com 0.85
org/isoiec-27001-inf ormation-security.ht ml org/isoiec-27001-inf ormation-security.ht ml 0.20
13. Iyer, V., Mohan, L., Reddy, Y.R., Bhatia, M.: A Survey on Ontology Enrichment from Text. 13. Iyer, V., Mohan, L., Reddy, Y.R., Bhatia, M.: A Survey on Ontology Enrichment from Text。 0.88
Proceedings of the 16th International Conference on Natural Language Processing (2019) 第16回自然言語処理国際会議の開催(2019年) 0.81
英語(論文から抽出)日本語訳スコア
OntoEnricher Onto Enricher 0.71
15 14. Jia, Y., Qi, Y., Shang, H., Jiang, R., Li, A.: A Practical Approach to Constructing 15 14. Jia, Y., Qi, Y., Shang, H., Jiang, R., Li, A.: 構築への実践的アプローチ 0.86
a Knowledge Graph for Cybersecurity. サイバーセキュリティに関する知識グラフです 0.71
Engineering 4(1), 53–60 (2018) 工学 4(1), 53–60 (2018) 0.87
15. Lau, J.H., Baldwin, T.: An Empirical Evaluation of Doc2Vec with Practical Insights into Document Embedding Generation. 15. Lau, J.H., Baldwin, T.: A Empirical Evaluation of Doc2Vec with Practical Insights into Document Embedding Generation (英語) 0.83
arXiv preprint arXiv:1607.05368 (2016) arXiv preprint arXiv:1607.05368 (2016) 0.75
16. Li, D., Huang, L., Ji, H., Han, J.: Biomedical Event Extraction based on Knowledge-driven Tree-LSTM. 16. Li, D., Huang, L., Ji, H., Han, J.: Knowledge-driven Tree-LSTMに基づくバイオメディカルイベント抽出 0.88
In: NAACL-HLT 2019: Annual Conference of the North American Chapter of the Association for Computational Linguistics. in: naacl-hlt 2019: annual conference of the north american chapter of the association for computational linguistics(英語) 0.84
pp. 1421–1430 (2019) pp. 1421–1430 (2019) 0.85
17. Liu, K., Hogan, W.R., Crowley, R.S. 17. Liu, K., Hogan, W.R., Crowley, R.S. 0.87
: Natural Language Processing Methods and Systems for Biomedical Ontology Learning. 生物医学オントロジー学習のための自然言語処理手法とシステム 0.77
Journal of Biomedical Informatics 44(1), 163–179 (2011) Journal of Biomedical Informatics 44(1), 163–179 (2011) 0.91
18. Liu, Q., Kusner, M.J., Blunsom, P.: A Survey on Contextual Embeddings. 18. Liu, Q., Kusner, M.J., Blunsom, P.: A Survey on Contextual Embeddings 0.88
arXiv preprint arXiv:2003.07278 (2020) arXiv arXiv:2003.07278(202 0年) 0.73
19. Mitchell, T., Cohen, W., Hruschka, E., Talukdar, P., Yang, B., Betteridge, J., Carlson, A., Dalvi, B., Gardner, M., Kisiel, B., et al. 19. Mitchell, T., Cohen, W., Hruschka, E., Talukdar, P., Yang, B., Betteridge, J., Carlson, A., Dalvi, B., Gardner, M., Kisiel, B., et al。 0.85
: Never-Ending Learning. : エンディングなし学習。 0.69
Communications of the ACM 61(5), 103–115 (2018) ACM 61(5)、103-115(2018)の通信 0.68
20. Nie, B., Sun, S.: Knowledge Graph Embedding via Reasoning over Entities, 20. Nie, B., Sun, S.: エンティティに対する推論による知識グラフの埋め込み 0.87
Relations, and Text. 関係、およびテキスト。 0.69
Future Generation Computer Systems 91, 426–433 (2019) 次世代コンピュータシステム91, 426–433 (2019) 0.93
21. Obrst, L., Chase, P., Markeloff, R.: Developing an Ontology of the Cyber Security 21. obrst, l., chase, p., markeloff, r.: developing a ontology of the cyber security 0.81
Domain. In: STIDS. ドメイン。 内:STIDS。 0.72
pp. 49–56 (2012) pp. 49–56 (2012) 0.85
22. Petasis, G., Karkaletsis, V., Paliouras, G., Krithara, A., Zavitsanos, E.: Ontology Population and Enrichment: State of the Art. 22. Petasis, G., Karkaletsis, V., Paliouras, G., Krithara, A., Zavitsanos, E.: Ontology Population and Enrichment: State of the Art。 0.85
In: Knowledge-driven Multimedia Information Extraction and Ontology Evolution in:知識駆動マルチメディア情報抽出とオントロジー進化 0.80
23. Pingle, A., Piplai, A., Mittal, S., Joshi, A., Holt, J., Zak, R.: RelExt: Relation Extraction using Deep Learning Approaches for Cybersecurity Knowledge Graph Improvement. 23. Pingle, A., Piplai, A., Mittal, S., Joshi, A., Holt, J., Zak, R.: RelExt: Relation Extraction using Deep Learning Approaches for Cybersecurity Knowledge Graph Improvement。 0.85
In: Proceedings of the 2019 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining. In: 2019年のIEEE/ACM International Conference on Advances in Social Networks Analysis and Miningの成果。 0.86
pp. 879–886 (2019) pp. 879–886 (2019) 0.85
24. Sabou, M., Wroe, C., Goble, C., Mishne, G.: Learning Domain Ontologies for Web Service Descriptions: An Experiment in Bioinformatics. 24. Sabou, M., Wroe, C., Goble, C., Mishne, G.: Learning Domain Ontologies for Web Service Descriptions: An Experiment in Bioinformatics。 0.86
In: Proceedings of the 14th International Conference on World Wide Web. 第14回World Wide Web国際会議に参加。 0.61
pp. 190–198 (2005) pp. 190–198 (2005) 0.85
25. Sanagavarapu, L., Gollapudi, S., Chimalakonda, S., Reddy, Y., Choppella, V.: A Lightweight Approach for Evaluating Sufficiency of Ontologies. 25. Sanagavarapu, L., Gollapudi, S., Chimalakonda, S., Reddy, Y., Choppella, V.: A Lightweight Approach for Evaluation of Ontology。 0.82
In: SEKE (2017) 26. 背番号:seke (2017) 26。 0.66
Sanagavarapu, L.M., Mathur, N., Agrawal, S., Reddy, Y.R. Sanagavarapu, L.M., Mathur, N., Agrawal, S., Reddy, Y.R. 0.95
: SIREN-Security In: European Conference on SIREN-Security In: European Conference on 0.92
Information Retrieval and Extraction eNgine. 情報検索と抽出eNgine。 0.57
Information Retrieval. pp. 811–814. 情報検索。 pp. 811–814. 0.69
Springer (2018) Springer (複数形 Springers) 0.57
27. Sayan, C., Hariri, S., Ball, G.L. 27. Sayan, C., Harri, S., Ball, G.L. 0.87
: Semantic Knowledge Architecture for Cyber Security. : サイバーセキュリティのためのセマンティックナレッジアーキテクチャ。 0.72
In: Proceedings of the International Conference on Security and Management (SAM). 国際安全保障管理会議 (sam: international conference on security and management) の略称。 0.74
pp. 69–76. pp. 69–76. 0.78
The Steering Committee of The World Congress in Computer Science, Computer Engineering, and Applied Computing (2019) the steering committee of the world congress of computer science, computer engineering, and applied computing (2019) 0.81
28. Schmitz, M., Bart, R., Soderland, S., Etzioni, O., et al. 28. Schmitz、M.、Bart、R.、Soderland、S.、Etzioni、O.、等。 0.83
: Open Language Learning for Information Extraction. : 情報抽出のためのオープン言語学習。 0.82
In: Proceedings of the Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning. In:自然言語処理と計算自然言語学習における経験的方法に関する合同会議の進行。 0.83
pp. 523–534. pp. 523–534. 0.78
Association for Computational Linguistics (2012) 計算言語学協会(2012年) 0.72
29. Schuster, M., Paliwal, K.K. 29. Schuster, M., Paliwal, K.K。 0.88
: Bidirectional Recurrent Neural Networks. :双方向リカレントニューラルネットワーク。 0.83
IEEE Transactions on Signal Processing 45(11), 2673–2681 (1997) IEEE 信号処理に関する取引45(11),2673-2681(199 7) 0.84
30. SIREN: Ontology Enrichment (Jan 2021), https://github.com/S IREN-DST/ 30. SIREN: Ontology Enrichment (Jan 2021), https://github.com/S IREN-DST/ 0.79
Ontology-Enrichment オントロジエンリッチメント 0.32
31. Syed, Z., Padia, A., Finin, T., Mathews, L., Joshi, A.: UCO: A Unified Cybersecurity Ontology. 31. Syed, Z., Padia, A., Finin, T., Mathews, L., Joshi, A.: UCO: A Unified Cybersecurity Ontology。 0.86
In: Workshops at the 30th AAAI Conference on Artificial Intelligence (2016) 第30回人工知能学会ワークショップ(2016)に参加して 0.51
英語(論文から抽出)日本語訳スコア
16 Sanagavarapu et al. 16 Sanagavarapu et al。 0.81
32. Vedula, N., Maneriker, P., Parthasarathy, S.: BOLT-K: Bootstrapping Ontology Learning via Transfer of Knowledge. 32. Vedula, N., Maneriker, P., Parthasarathy, S.: BOLT-K: Bootstrapping Ontology Learning via Transfer of Knowledge。 0.90
In: The World Wide Web Conference. In: The World Wide Web Conference (英語) 0.82
pp. 1897–1908 (2019) pp. 1897–1908 (2019) 0.85
33. Wang, Q., Mao, Z., Wang, B., Guo, L.: Knowledge Graph Embedding: A Survey of Approaches and Applications. 33. Wang, Q., Mao, Z., Wang, B., Guo, L.: Knowledge Graph Embedding: A Survey of Approaches and Applications。 0.85
IEEE Transactions on Knowledge and Data Engineering 29(12), 2724–2743 (2017) IEEE Transactions on Knowledge and Data Engineering 29(12), 2724–2743 (2017) 0.90
34. Wohlgenannt, G., Minic, F.: Using Word2Vec to Build a Simple Ontology Learning 34. Wohlgenannt, G., Minic, F.: Word2Vecを使って単純なオントロジー学習を構築する 0.83
System. In: International Semantic Web Conference (2016) システム。 In: International Semantic Web Conference (2016) 0.81
35. Zheng, H., Wang, Y., Han, C., Le, F., He, R., Lu, J.: Learning and Applying Ontology for Machine Learning in Cyber Attack Detection. 35. Zheng, H., Wang, Y., Han, C., Le, F., He, R., Lu, J.: サイバー攻撃検出における機械学習のためのオントロジーの学習と適用。 0.87
In: 17th IEEE International Conference On Trust, Security And Privacy In Computing And Communications/ 12th IEEE International Conference On Big Data Science And Engineering. In: 17th IEEE International Conference on Trust, Security and Privacy in Computing and Communications / 12th IEEE International Conference on Big Data Science and Engineering 0.88
pp. 1309–1315 (2018) pp. 1309–1315 (2018) 0.85
                                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。