論文の概要、ライセンス

# (参考訳) 意思決定前に親子に問い合わせる:自己監督型分類学拡張のための完全な階層構造 [全文訳有]

Enquire One's Parent and Child Before Decision: Fully Exploit Hierarchical Structure for Self-Supervised Taxonomy Expansion ( http://arxiv.org/abs/2101.11268v1 )

ライセンス: CC BY 4.0
Suyuchen Wang, Ruihui Zhao, Xi Chen, Yefeng Zheng and Bang Liu(参考訳) 分類学は、機械知能において重要な役割を果たす階層構造化された知識グラフである。 分類拡張タスクは、既存の分類学において、世界の新しい知識を捉え、分類学を動的に更新し続けるために新しい用語を見つけることを目的としている。 従来の分類展開解は階層構造によってもたらされる貴重な情報を無視し、単に付加されたエッジの正確性を評価し、問題をノードペアスコアやミニパス分類に低下させる。 本稿では,階層構造の性質を完全に活用し,拡張された分類の一貫性を最大化する階層拡張フレームワーク(HEF)を提案する。 HEF makes use of taxonomy's hierarchical structure in multiple aspects: i) HEF utilizes subtrees containing most relevant nodes as self-supervision data for a complete comparison of parental and sibling relations; ii) HEF adopts a coherence modeling module to evaluate the coherence of a taxonomy's subtree by integrating hypernymy relation detection and several tree-exclusive features; iii) HEF introduces the Fitting Score for position selection, which explicitly evaluates both path and level selections and takes full advantage of parental relations to interchange information for disambiguation and self-correction. 広範な実験により、階層構造をうまく活用し、分類学のコヒーレンスを最適化することにより、HEFは3つのベンチマークデータセットの以前の状態を大幅に上回り、平均46.7%の精度と32.3%の平均相互ランクの向上によって達成した。

Taxonomy is a hierarchically structured knowledge graph that plays a crucial role in machine intelligence. The taxonomy expansion task aims to find a position for a new term in an existing taxonomy to capture the emerging knowledge in the world and keep the taxonomy dynamically updated. Previous taxonomy expansion solutions neglect valuable information brought by the hierarchical structure and evaluate the correctness of merely an added edge, which downgrade the problem to node-pair scoring or mini-path classification. In this paper, we propose the Hierarchy Expansion Framework (HEF), which fully exploits the hierarchical structure's properties to maximize the coherence of expanded taxonomy. HEF makes use of taxonomy's hierarchical structure in multiple aspects: i) HEF utilizes subtrees containing most relevant nodes as self-supervision data for a complete comparison of parental and sibling relations; ii) HEF adopts a coherence modeling module to evaluate the coherence of a taxonomy's subtree by integrating hypernymy relation detection and several tree-exclusive features; iii) HEF introduces the Fitting Score for position selection, which explicitly evaluates both path and level selections and takes full advantage of parental relations to interchange information for disambiguation and self-correction. Extensive experiments show that by better exploiting the hierarchical structure and optimizing taxonomy's coherence, HEF vastly surpasses the prior state-of-the-art on three benchmark datasets by an average improvement of 46.7% in accuracy and 32.3% in mean reciprocal rank.
公開日: Wed, 27 Jan 2021 08:57:47 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n a J 1 2 0 2 n a J 0.85
7 2 ] L C . 7 2 ] L C。 0.78
s c [ 1 v 8 6 2 1 1 sc [ 1 v 8 6 2 1 1 0.68
. 1 0 1 2 : v i X r a . 1 0 1 2 : v i X r a 0.85
Enquire One’s Parent and Child Before Decision: Fully Exploit Hierarchical Structure for Self-Supervised Taxonomy Expansion 意思決定前に親子に問い合わせる:自己監督型分類学拡張のための完全な階層構造 0.76
Suyuchen Wang∗ Suyuchen Wang∗ 0.88
suyuchen.wang@umontr eal.ca suyuchen.wang@umontr eal.ca 0.59
Mila & DIRO, Université de Montréal Mila & DIRO, Université de Montréal 0.85
Montréal, Québec, Canada モントリオール、ケベック、カナダ 0.69
Ruihui Zhao Ruihui Zhao 0.85
zacharyzhao@tencent. com zacharyzhao@tencent. com 0.78
Tencent Jarvis Lab Tencent Jarvis Lab 0.85
Shenzhen, Guangdong, China シンセン、広東省、中国。 0.52
Xi Chen jasonxchen@tencent.c om 習チェン jasonxchen@tencent.c om 0.65
Tencent Jarvis Lab Tencent Jarvis Lab 0.85
Shenzhen, Guangdong, China シンセン、広東省、中国。 0.52
Yefeng Zheng Yefeng Zheng 0.85
yefengzheng@tencent. com yefengzheng@tencent. com 0.78
Tencent Jarvis Lab Tencent Jarvis Lab 0.85
Shenzhen, Guangdong, China シンセン、広東省、中国。 0.52
Bang Liu† bang.liu@umontreal.c a バン・リュウ bang.liu@umontreal.c a 0.46
Mila & DIRO, Université de Montréal Mila & DIRO, Université de Montréal 0.85
Montréal, Québec, Canada モントリオール、ケベック、カナダ 0.69
ABSTRACT Taxonomy is a hierarchically structured knowledge graph that plays a crucial role in machine intelligence. ABSTRACT Taxonomyは、機械知能において重要な役割を果たす階層構造化された知識グラフです。 0.72
The taxonomy expansion task aims to find a position for a new term in an existing taxonomy to capture the emerging knowledge in the world and keep the taxonomy dynamically updated. 分類拡張タスクは、既存の分類学において、世界の新しい知識を捉え、分類学を動的に更新し続けるために新しい用語を見つけることを目的としている。
訳抜け防止モード: 分類拡大課題は、既存の分類学における新しい用語の位置づけを見つけることを目的としている 世界の知識を捉え 分類を動的に更新するのです
0.70
Previous taxonomy expansion solutions neglect valuable information brought by the hierarchical structure and evaluate the correctness of merely an added edge, which downgrade the problem to node-pair scoring or mini-path classification. 従来の分類展開解は階層構造によってもたらされる貴重な情報を無視し、単に付加されたエッジの正確性を評価し、問題をノードペアスコアやミニパス分類に低下させる。 0.63
In this paper, we propose the Hierarchy Expansion Framework (HEF), which fully exploits the hierarchical structure’s properties to maximize the coherence of expanded taxonomy. 本稿では,階層構造の性質を完全に活用し,拡張された分類の一貫性を最大化する階層拡張フレームワーク(HEF)を提案する。 0.82
HEF makes use of taxonomy’s hierarchical structure in multiple aspects: i) HEF utilizes subtrees containing most relevant nodes as self-supervision data for a complete comparison of parental and sibling relations; ii) HEF adopts a coherence modeling module to evaluate the coherence of a taxonomy’s subtree by integrating hypernymy relation detection and several tree-exclusive features; iii) HEF introduces the Fitting Score for position selection, which explicitly evaluates both path and level selections and takes full advantage of parental relations to interchange information for disambiguation and selfcorrection. HEF makes use of taxonomy’s hierarchical structure in multiple aspects: i) HEF utilizes subtrees containing most relevant nodes as self-supervision data for a complete comparison of parental and sibling relations; ii) HEF adopts a coherence modeling module to evaluate the coherence of a taxonomy’s subtree by integrating hypernymy relation detection and several tree-exclusive features; iii) HEF introduces the Fitting Score for position selection, which explicitly evaluates both path and level selections and takes full advantage of parental relations to interchange information for disambiguation and selfcorrection. 0.88
Extensive experiments show that by better exploiting the hierarchical structure and optimizing taxonomy’s coherence, HEF vastly surpasses the prior state-of-the-art on three benchmark datasets by an average improvement of 46.7% in accuracy and 32.3% in mean reciprocal rank. 広範な実験により、階層構造をうまく活用し、分類学のコヒーレンスを最適化することで、hefは3つのベンチマークデータセットの以前の状態を大きく上回り、平均46.7%の精度向上と32.3%の平均相互ランクで達成した。 0.70
KEYWORDS taxonomy expansion, self-supervised learning, hierarchical structure KEYWORDS分類体系の拡大,自己指導型学習,階層構造 0.71
1 INTRODUCTION Taxonomy is a particular type of hierarchical knowledge graph that portrays the hypernym-hyponym relations or “is-A” relations of various concepts and entities. 1 INTRODUCTION Taxonomyは、さまざまな概念やエンティティの超ニックネーム関係または「is-A」関係を表す特定のタイプの階層的知識グラフです。 0.80
They have been adopted as the underlying infrastructure of a wide range of online services in various domains, such as product catalogs for e-commerce [14, 22], scientific indices like MeSH [19], and lexical databases like WordNet [25]. それらは、eコマースの製品カタログ(14, 22]、メッシュ[19]のような科学指標、wordnet[25]のような語彙データベースなど、さまざまなドメインにおける幅広いオンラインサービスの基盤となるインフラとして採用されている。 0.80
A well-constructed taxonomy can assist various downstream tasks, ∗Work done during an internship at Tencent Jarvis Lab. よく構築された分類学は、Tencent Jarvis Labのインターンシップ中に∗Workが行った、さまざまな下流タスクを支援することができる。 0.49
†Corresponding author. Figure 1: An illustration of the taxonomy expansion task and the contributions of the proposed HEF model. 対応作家。 図1:分類学拡張タスクの例示と提案されたHEFモデルの貢献。 0.56
including web content tagging [20, 27], web searching [46], personalized recommendation [10] and helping users achieve quick navigation on web applications [9]. Webコンテンツタグ [20, 27]、Web検索 [46]、パーソナライズされた推奨 [10]、およびユーザーがWebアプリケーションで迅速なナビゲーションを達成するのを助ける [9]を含む。 0.80
Manually constructing and maintaining a taxonomy is laborious, expensive and time-consuming. 分類学を手作業で構築し維持することは、手間がかかり、高価で、時間を要する。 0.42
It is also highly inefficient and detrimental for downstream tasks if we construct a taxonomy from scratch [7, 41] as long as the taxonomy has new terms to be added. また,分類学を新たに追加する条件がある限り,[7,41]スクラッチから分類学を構築する場合,下流課題にも極めて非効率で有害である。 0.60
A more realistic strategy is to insert new terms (“query”) into an existing taxonomy, i.e., the seed taxonomy, as a child of an existing node in the taxonomy (“anchor”) without modifying its original structure to best preserve its design. より現実的な戦略は、既存の分類学、すなわち種分類学に新しい用語("query")を挿入し、その設計を最善に維持するために元の構造を変更することなく、既存の分類学("anchor")のノードの子とすることである。 0.69
This problem is called taxonomy expansion [13]. この問題は分類学拡張[13]と呼ばれる。 0.71
Early taxonomy expansion approaches use terms that do not exist in the seed taxonomy and its best-suited position in the seed taxonomy as training data [12]. 初期の分類学の拡張アプローチは、種子分類学に存在しない用語と、種子分類学に最も適した位置をトレーニングデータとして使用する[12]。 0.68
However, it suffers from the insufficiency of training data and the shortage of taxonomy structure supervision. しかし、これは訓練データの不十分さと分類構造管理の欠如に悩まされている。 0.61
More recent solutions adopt self-supervision and try to exploit the information of nodes in the seed taxonomy (seed より最近のソリューションでは、自己スーパービジョンを採用し、種分類(seed)におけるノード情報の利用を試みる。
訳抜け防止モード: より最近のソリューションは自己導入 - 監督と試す 種子分類学(seed taxonomy(seed))のノードの情報を利用する
0.67
Seed TaxonomyExpanded Taxonomyfoodbeverage nutriment…………vitamincoffeetea…………black teaoolong……foodbeveragenutrimen t…………vitamincoffeetea…………black teaoolong……colaespressovitamin CHierarchy Expansion Framework (HEF)New Goal: Maximize the coherenceof taxonomy expansionSelf-Superv isionDesignfoodicedt eaoolongbeverageteab lackteaEgo-treeModel ing StrategyParent’s SelectionScoring FunctionFittingScore Path SelectionLevel SelectionChild’s Selection??? シードタクノミー拡大タクノミーフードビバレッジ栄養.................... .ブラックティーオロン......フードビバレッジ栄養.................... .ブラックティーオロン...............ブラックティーオロン......コーラエスプレッソビタミン階層拡張フレームワーク(HEF)新しい目標:タクシーノミ拡張のコヒーレンスを最大化するセルフビジョンDesignfoodicedteaool ongbeverageteateaEgo -treeModeling StrategyParent’s SelectionScoringFitt ingScorePath SelectionLevel Selection子供の選択? 0.23
?Go Down! ?Go Up!?!!! 下へ! ? 上がれ! えッ!? 0.49
!Parent’s SelectionCoherence ModelingCoherence EvaluationNew Approaches: Fully exploit the hierarchical structureof taxonomyTraining on hierarchical structured dataAdding hierarchy-exclusive featuresMulti-dimens ional Evaluation of hierarchical relationsfoodlattemo chabeverageespressoC oherent?coffee 階層構造データに基づくトレーニング階層限定機能の追加階層関係の多次元評価foodlattemochabevera geespressoCoherent?c offee 0.75
英語(論文から抽出)日本語訳スコア
nodes) to perform node pair matching [34] or classification along mini paths in the taxonomy [47]. ノード) 分類[47]におけるノードペアマッチング[34]またはミニパスに沿って分類を行う。 0.90
However, these approaches do not fully utilize the taxonomy’s hierarchical structure’s characteristics, and neglect the coherence of the extended taxonomy which oughts to be the core of the taxonomy expansion task. しかしながら、これらのアプローチは分類学の階層構造の特徴を完全に活用せず、分類学拡張タスクの中核となるべき拡張分類学の一貫性を無視している。 0.68
More specifically, existing approaches do not model a hierarchical structure identical to the taxonomy. より具体的には、既存のアプローチは分類学と同一の階層構造をモデル化しない。 0.66
Instead, they use ego-nets [34] or mini-paths [47] and feature few or no tree-exclusive information, making them unable to extract or learn the complete hierarchical design of a taxonomy. 代わりに ego-nets [34] や mini-paths [47] を使い、木に隠された情報はほとんど、あるいは全くなく、分類学の完全な階層的設計を抽出または学習できない。 0.68
Besides, they do not consider the coherence of a taxonomy. また、分類学の一貫性も考慮していない。 0.56
They manage to find the most suitable node in a limited subgraph and only evaluate the correctness of a single edge instead of the expanded taxonomy, which downgrades the taxonomy expansion task to a hypernymy detection task. 彼らは限られた部分グラフの中で最も適したノードを見つけ出し、拡張された分類法ではなく単一の辺の正しさのみを評価することで、分類展開タスクをハイパーニー検出タスクにダウンダウンさせる。
訳抜け防止モード: 彼らは、制限された部分グラフの中で最も適したノードを見つけることができた 拡大した分類法の代わりに 一つのエッジの正しさを 評価するだけです 分類学拡張タスクを ハイパーネミー検出タスクに格下げします
0.65
Lastly, their scoring approach regards the anchor node as an individual node without considering the hierarchical context information. 最後に、スコアリングアプローチでは、アンカーノードを階層的なコンテキスト情報を考慮せずに個々のノードとみなす。 0.65
However, the hierarchical structure provides multi-aspect criteria to evaluate a node, such as its path or level correctness. しかし、階層構造はノードのパスやレベルの正確性などを評価するためのマルチアスペクトの基準を提供する。 0.70
The structure also marks the nodes that are most likely to be wrongly chosen to be a parent in a specific parental relation. この構造はまた、特定の親関係において親であると誤って選択される可能性が高いノードを示す。 0.82
To solve all the stated flaws in previous works, we propose the Hierarchy Expansion Framework (HEF), which aims to maximize the coherence of the expanded taxonomy instead of the fitness of a single edge by fully exploiting the hierarchical structure of a taxonomy for self-supervised training, as well as modeling and evaluating the structure of taxonomy. 先行研究における全ての欠点を解決するため,我々は,自己監督訓練のための分類体系の階層構造を十分に活用し,分類体系の構造をモデル化し評価することにより,単一辺の適合性に代えて拡張分類体系の一貫性を最大化することを目的とした階層展開枠組み(hef)を提案する。 0.72
HEF’s designs and goals are illustrated in Fig. HEFのデザインと目標を図に示します。 0.65
1. Specifically, we make the following contributions. 1. 具体的には、以下の貢献をする。 0.76
Firstly, we design an innovative hierarchical data structure for self-supervision to mimic how humans construct a taxonomy. まず,人類が分類体系を構築する方法を模倣するために,自己スーパービジョンのための革新的な階層的データ構造を設計する。 0.55
Relations in a taxonomy include hypernymy relations along a root-path and similarity among siblings. 分類学における関係は、根経路に沿ったハイパーニーミー関係と兄弟姉妹間の類似性を含む。 0.55
To find the most suitable parent node for the query term, human experts need to compare an anchor node with all its ancestors to distinguish the most appropriate one and compare the query with its potential siblings to testify their similarity. クエリ用語に最も適した親ノードを見つけるには、人間の専門家がアンカーノードをすべての祖先と比較し、最も適切なノードを区別し、潜在的な兄弟とクエリを比較して類似性を検証する必要があります。 0.70
For example, to choose the parent for query “black tea” in the food taxonomy, the most appropriate anchor “tea” can only be selected by distinguishing from its ancestors “beverage” and “food”, which are all “black tea” ’s hypernyms, as well as compare the query “black tea” with “tea”’s children like “iced tea” and “oolong” to guarantee similarity among siblings. 例えば、食品分類学の「紅茶」のクエリの親を選択するには、最も適切なアンカー「お茶」は、すべての「紅茶」のハイパーネームである先祖の「飲料」と「食べ物」と区別することによってのみ選択することができ、クエリ「紅茶」と兄弟間の類似性を保証するために「紅茶」のような「紅茶」の子供を比較します。
訳抜け防止モード: 例えば、食物分類学で「紅茶」を問合せする親を選ぶ。 最も適切なアンカーである「ティー」は、その祖先である「ドリンク」と区別することによってのみ選択できる。 また、”black tea”のハイパーニムである“food ”や、クエリ“black tea”と“ iced tea”や“oolong”のような“tea”の子供を比較している。 兄弟姉妹間の類似性を保証する。
0.85
Thus, we design a new structure called “ego-tree” for self-supervision, which contains all ancestors and sample of children of a node for taxonomy structure learning. そこで、自己監督のための「エゴツリー」と呼ばれる新しい構造を設計し、すべての祖先と分類構造学習のためのノードの子供のサンプルを含む。 0.73
Our ego-tree incorporates richer topological context information for attaching a query term to a candidate parent with minimal computation cost compared to previous approaches based on node pair matching or path information. 私たちのエゴツリーは、ノードペアマッチングまたはパス情報に基づく以前のアプローチと比較して、最小の計算コストで候補親にクエリ語を付けるためのより豊富なトポロジカルコンテキスト情報を取り入れています。 0.63
Secondly, we design a new modeling strategy to perform explicit ego-tree coherence modeling apart from the traditional node-pair hypernymy detection. 次に,従来のノードペアハイパーニーミー検出とは別として,明示的なエゴツリーコヒーレンスモデリングを行うための新しいモデリング戦略を設計する。 0.72
Instead of merely modeling the correctness of the added edge, we adopt a more comprehensive approach to detect whether the anchor’s ego-tree after adding the query maintains the original design of the seed taxonomy. 付加されたエッジの正しさをモデリングするだけでなく、クエリの追加後にアンカーのエゴツリーがシード分類のオリジナル設計を維持するかどうかを検出するためのより包括的なアプローチを採用しています。 0.65
The design of taxonomy includes natural hypernymy relations, which needs the representation of node-pair relations and expert-curated level configurations, such as species must be placed in the eighth level of biological taxonomy, or adding one more adjective to a term means exactly one level higher in the e-commerce taxonomy. 分類学の設計には自然のハイパーネミー関係が含まれており、これはノード対関係の表現と、生物分類学の8番目のレベルに種を配置しなければならないような専門家によって計算されたレベルの構成を必要とする。 0.67
We adopt a coherence 私たちはコヒーレンスを採用する 0.56
modeling module to detect the two aspects of coherence: i) For natural hypernymy relations, we adopt a hypernymy detection module to represent the relation between the query and each node in the anchor’s ego-tree. コヒーレンスの2つの側面を検出するためのモデリングモジュール i) 自然ハイパーニーミー関係に対して、クエリとアンカーのegoツリー内の各ノードの関係を表現するためにハイパーニーミー検出モジュールを採用する。 0.73
ii) For expert-curated designs, we integrate hierarchy-exclusive features such as embeddings of a node’s absolute level and relative level to the anchor into the coherence modeling module. 二 専門家による設計の場合、ノードの絶対レベルとアンカーに対する相対レベルをコヒーレンスモデリングモジュールに埋め込むような階層的排他的特徴を統合する。 0.76
Thirdly, we design a multi-dimensional evaluation to score the coherence of the expanded taxonomy. 第3に,拡張分類の一貫性を評価するために多次元評価をデザインする。 0.69
The hierarchical structure of taxonomy allows the model to evaluate the correctness of path selection and level selection separately and the parental relationships in a hierarchy not only allow the model to disambiguate the most similar terms but also enables the model to self-correct its level selection by deciding the current anchor’s granularity is too high or too low. 分類学の階層構造により、モデルは経路選択とレベル選択の正しさを別々に評価することができ、階層内の親関係はモデルが最も類似した用語を曖昧にするだけでなく、現在のアンカーの粒度が高すぎるか低すぎるかを判断することで、モデルがレベル選択を自己修正できる。 0.77
We introduce the Fitting Score for the coherence evaluation of the expanded ego-tree by using a Pathfinder and a Stopper to score path correctness and level correctness, respectively. そこで我々はPathfinderとStopperを用いて拡張エゴツリーのコヒーレンス評価のためのフィッティングスコアを導入し,それぞれパスの正しさとレベル正しさを評価する。 0.73
The Fitting Score calculation also disambiguates the most appropriate anchor from its parent and children and self-correct its level selection by bringing the level suggestion from the anchor’s parent and one of its children into consideration. Fitting Score計算はまた、親子から最も適切なアンカーを識別し、アンカーの親とその子供の1つからのレベル提案を考慮に入れて、そのレベル選択を自己修正します。 0.71
The Fitting Score’s optimization adopts a self-supervised multi-task training paradigm for the Pathfinder and Stopper, which automatically generates training data from the seed taxonomy to utilize its information fully. Fitting Scoreの最適化は、パスファインダーとストッパーの自己監視型マルチタスクトレーニングパラダイムを採用し、種子分類からトレーニングデータを自動的に生成して、その情報を完全に活用します。 0.68
We conduct extensive evaluations based on three benchmark datasets to compare our method with state-of-the-art baseline approaches. 3つのベンチマークデータセットに基づいて広範な評価を行い、手法と最先端のベースラインアプローチを比較します。 0.60
The results suggest that the proposed HEF model significantly surpasses the previous solutions on all three datasets by an average improvement of 46.7% in accuracy and 32.3% in mean reciprocal rank. その結果,提案するhefモデルは,従来の3つのデータセットの解を,平均46.7%,平均相対ランク32.3%で大幅に上回っていることが示唆された。 0.74
A series of ablation studies further demonstrate that HEF can effectively perform the taxonomy expansion task. 一連のアブレーション研究は、HEFが分類学拡張タスクを効果的に実行できることをさらに示している。 0.62
2 RELATED WORK Taxonomy Construction. 2 関連作業分類構築。 0.65
Taxonomy construction aims to create a tree-structured taxonomy with a set of terms (such as concepts and entities) from scratch, integrating hypernymy discovery and tree structure alignment. 分類学の構成は、概念や実体といった一連の用語をスクラッチから構築し、ハイパーニーミーの発見とツリー構造アライメントを統合することを目的としている。 0.64
It can be further separated into two subdivisions. さらに2つの区分に分けられる。 0.61
The first focuses on topic-based taxonomy, where each node is a cluster of several terms sharing the same topic [32, 48]. ひとつはトピックに基づく分類であり、各ノードは同じトピック [32, 48] を共有する複数の用語のクラスタである。 0.81
The other subdivision tackles the problem of term-based taxonomy construction, in which each node represents the term itself [3, 24, 35]. もう1つの部分区分は項に基づく分類体系の問題に対処し、各ノードは [3, 24 35] という用語を表す。 0.68
A typical pipeline for this task is to extract “is-A” relations with a hypernymy detection model first using either a pattern-based model [1, 8, 11, 28] or a distributional model [4, 18, 42, 45], then integrate and prune the mined hypernym-hyponym pairs into a single directed acyclic graph (DAG) or tree [7]. このタスクの典型的なパイプラインは、まずパターンベースモデル [1, 8, 11, 28] または分布モデル [4, 18, 42, 45] を用いて、ハイパーネミー検出モデルとの"is-A"関係を抽出し、次いで、マイニングしたハイパーネム-ハイポニムペアを単一の非環状グラフ(DAG)またはツリー [7] に統合してプーンする。 0.81
More recent solutions utilize hyperbolic embeddings [17] or transfer learning [31] to boost performance. 最近のソリューションでは、hyperbolic embeddeds [17] や transfer learning [31] を使ってパフォーマンスを高めている。 0.68
Taxonomy Expansion. In the taxonomy expansion task, an expert-curated seed taxonomy like MeSH [19] is provided as both the guidance and the base for adding new terms. 分類学の拡張。 分類拡張タスクでは、新しい用語を追加するためのガイダンスと基盤として、MeSH[19]のような専門家による種分類が提供される。 0.56
The taxonomy expansion task is a ranking task to maximize a score of a node and its ground-truth parent in the taxonomy. 分類学拡張タスクは、分類学においてノードとその接地親のスコアを最大化するランキングタスクである。 0.72
Wang et al. [43] adopted Dirichlet distribution to model the parental relations. 王等。 [43] 親関係をモデル化するためにディリクレ分布を採用した。 0.57
ETF [40] trained a learning-to-rank framework with handcrafted structural and semantic features. ETF[40]は、手作りの構造的特徴と意味的特徴を持つ学習から階級的枠組みを訓練した。 0.48
Arborist [23] calculated the ranking アーボリスト[23]がランクを計算した 0.65
2 2 0.85
英語(論文から抽出)日本語訳スコア
score in a bi-linear form and adopted margin ranking loss. 双線形の形で得点し、マージンランキングの損失を採用した。 0.55
TaxoExpan [34] modeled the anchor node by passing messages from its egonet instead of considering a single node, and scored by feeding a concatenation of egonet representation and query embedding to a feed-forward layer. TaxoExpan[34]は、単一のノードではなく、イーゴネットからメッセージを渡すことでアンカーノードをモデル化し、エゴネット表現の結合とフィードフォワード層へのクエリ埋め込みによってスコア付けした。 0.69
STEAM [47] transformed the scoring task into a classification task on mini-paths and performed model ensemble of three sub-models processing distributional, contextual, and lexical-syntactic features, respectively. STEAM [47] は, スコアリングタスクをミニパスの分類タスクに変換し, 分布, 文脈, 語彙・シンタクティック特徴をそれぞれ処理する3つのサブモデルのモデルアンサンブルを行った。 0.75
However, existing approaches mostly neglect the characteristics of taxonomy’s hierarchical structure and only evaluate the correctness of a single edge from anchor to query. しかしながら、既存のアプローチは分類学の階層構造の特徴をほとんど無視し、アンカーからクエリへの単一のエッジの正確性を評価するのみである。 0.74
On the contrary, our method utilizes the features and relations brought by the hierarchical structure and aims to enhance the expanded taxonomy’s overall coherence. 一方,本手法は階層構造によってもたらされる特徴と関係を利用して,拡大分類体系全体の一貫性を高めることを目的としている。 0.68
Modeling of Tree-Structured Data. 木構造データのモデリング 0.69
Taxonomy expansion involves modeling a tree or graph structure. 分類学の拡張は、木またはグラフ構造をモデル化する。 0.60
Plenty of works have been devoted to extending recurrent models to tree structures, like Tree-LSTM [38]. Tree-LSTM [38]のように、繰り返しモデルをツリー構造に拡張するために多くの作品が捧げられています。 0.69
For explicit tree-structure modeling, previous approaches include modeling the likelihood of a Bayesian network [6, 43] or using graph neural net variants [34, 47]. 明示的な木構造モデリングには、ベイズネットワーク [6, 43] やグラフニューラルネットワーク [34, 47] の可能性をモデル化することを含む。 0.80
Recently, Transformers [39] achieved state-of-the-art performance in the program translation task by designing a novel positional encoding related to paths in the tree [36] or merely transforming a tree to sequence by traversing its nodes [15]. 最近、トランスフォーマー[39]は、ツリー内のパスに関連する新しい位置符号化を設計[36]または単にそのノードをトラバースすることによってツリーをシーケンスに変換することによって、プログラム翻訳タスクで最先端のパフォーマンスを達成しました[15]。 0.71
In our work, we model tree-structure by a Transformer encoder, which, to the best of our knowledge, is the first to use the Transformer for taxonomy modeling. 我々の研究では、木構造をトランスフォーマーエンコーダでモデル化し、その知識を最大限に活用し、分類モデリングに初めてトランスフォーマーを用いた。
訳抜け防止モード: 私たちの研究では、Transformerエンコーダによるツリー-構造をモデル化します。 私たちの知識の最大限に、分類学モデリングにTransformerを使用するのは初めてです。
0.71
We adopt a more natural setting than [36] by using two different embeddings for a node’s absolute and relative level to denote positions. ノードの絶対値と相対値の2つの異なる埋め込みを用いて位置を示すことにより、[36]よりも自然な設定を採用する。 0.71
3 PROBLEM DEFINITION In this section, we provide the formal definition of the taxonomy expansion task and the explanation of key concepts that will occur in the following sections. 3プロブレム定義 このセクションでは、分類拡張タスクの形式的な定義と、次のセクションで発生する重要な概念の説明を提供します。 0.75
Definition and Concepts about Taxonomy. 分類学の定義と概念。 0.70
A taxonomy T = (N, E) is an arborescence that presents hypernymy relations among a set of nodes. 分類学 T = (N, E) は、一組のノード間のハイパーネミー関係を示すアーボラッセンスである。 0.73
Each node 𝑛 ∈ N represents a term, usually a concept mined from a large corpus online or an artificially extracted 各ノード n ∈ N は用語を表し、通常はオンラインで大きなコーパスまたは人工的に抽出された概念である。 0.75
phrase. Each edge(cid:10)𝑛𝑝, 𝑛𝑐(cid:11) ∈ E points to a node from its most exact フレーズ。 各エッジ(cid:10)np, nc(cid:11) ∈ E は最も正確なノードを指している 0.75
hypernym node, where 𝑛𝑝 is 𝑛𝑐’s parent node, and 𝑛𝑐 is 𝑛𝑝’s child node. hypernym ノード、np は nc の親ノード、nc は np の子ノードです。 0.60
Since hypernymy relation is transitive [29], such relation exists not only in node pairs connected by a single edge, but also in node pairs connected by a path in the taxonomy. ハイパーネミー関係は推移的[29]であるため、そのような関係は単一のエッジで接続されたノード対だけでなく、分類学で接続されたノード対にも存在している。 0.72
Thus, for a node 𝑛 in the taxonomy, its hypernym set and hyponym set consists of its ancestors A𝑛, and its descendants D𝑛 respectively. したがって、分類学におけるノード n に対して、そのハイパーニム集合とハイポニム集合は、それぞれその祖先 an とその子孫 dn からなる。 0.71
Definition of the Taxonomy Expansion Task. 分類学拡張タスクの定義。 0.61
Given a seed taxonomy T 0 = (N0, E0) and the set of terms C to be added to the seed taxonomy, The model outputs the taxonomy T = (N0 ∪ C, E0∪R), where R is the newly added relations from seed nodes in N0 to new terms in C. More specifically, during the inference phase of a taxonomy expansion model, when given a query node 𝑞 ∈ C, the model finds its best-suited parent node by iterating each node in the seed taxonomy as an anchor node 𝑎 ∈ N0, calculating a score 𝑓 (𝑎, 𝑞) representing the suitability for adding the edge ⟨𝑎, 𝑞⟩, and deciding 𝑞’s parent 𝑝𝑞 in the taxonomy by 𝑝𝑞 = arg max𝑎∈N0 𝑓 (𝑎, 𝑞). Given a seed taxonomy T 0 = (N0, E0) and the set of terms C to be added to the seed taxonomy, The model outputs the taxonomy T = (N0 ∪ C, E0∪R), where R is the newly added relations from seed nodes in N0 to new terms in C. More specifically, during the inference phase of a taxonomy expansion model, when given a query node 𝑞 ∈ C, the model finds its best-suited parent node by iterating each node in the seed taxonomy as an anchor node 𝑎 ∈ N0, calculating a score 𝑓 (𝑎, 𝑞) representing the suitability for adding the edge ⟨𝑎, 𝑞⟩, and deciding 𝑞’s parent 𝑝𝑞 in the taxonomy by 𝑝𝑞 = arg max𝑎∈N0 𝑓 (𝑎, 𝑞). 0.94
Accessible External Resources. アクセス可能な外部資源。 0.72
As a term’s surface name is usually insufficient to convey the semantic information for hypernymy relationship detection, previous research usually utilizes 用語の表面名は、通常、ハイパーニーミー関係検出のための意味情報を伝えるのに不十分であるため、通常、以前の研究が使用される。
訳抜け防止モード: 用語として、表面的な名前は通常不十分である ハイパーナミー関係検出の 意味情報を伝えるためです これまでの研究は
0.79
term definitions [13, 34] or related web pages [16, 43] to learn term representations. 用語の定義 [13, 34] または関連するwebページ [16, 43] は用語表現を学ぶ。 0.84
Besides, existing hypernymy detection solutions usually use large external corpora to discover lexical or syntactic patterns [37, 47]. さらに、既存のハイパーネミー検出ソリューションは、通常、大きな外部コーパスを使用して語彙パターンや構文パターンを見つける[37, 47]。 0.63
As for the SemEval-2016 Task 13 datasets [2] used for our model’s evaluation, utilizing the WordNet [25] definitions is allowed by the original task, which guarantees a fair comparison with previous solutions. SemEval-2016 Task 13 のデータセット [2] については,WordNet [25] の定義を元のタスクで使用することで,従来のソリューションと公正な比較が可能である。 0.74
4 THE HIERARCHY EXPANSION FRAMEWORK ヒエラルシー拡張4 フレームワーク 0.41
In this section, we introduce the design of the Hierarchy Expansion Framework (HEF). このセクションでは、階層拡張フレームワーク(HEF)の設計について説明します。 0.71
An illustration of HEF is shown in Fig. HEFのイラストを図に示します。 0.67
2. We first introduce the way HEF models the coherence of a tree structure, including two components for node pair hypernymy detection and ego-tree coherence modeling, respectively. 2. まず,ノード対ハイパーニーミー検出とego-treeコヒーレンスモデリングの2つのコンポーネントを含む,木構造のコヒーレンスをhefがモデル化する方法を紹介する。 0.80
Then, we discuss how HEF further exploits the hierarchical structure for multi-dimensional evaluation by the modules of Pathfinder and Stopper, and the self-supervised paradigm to train the model for the Fitting Score calculation. そこで我々は,HEFがPathfinderとStopperのモジュールによる多次元評価のために階層構造をどのように活用するか,そしてフィッティングスコア計算のモデルを学習するための自己教師型パラダイムについて論じる。 0.71
4.1 Node Pair Hypernymy Detection We first introduce the hypernymy detection module of HEF, which detects the hypernymy relationships between two terms. 4.1 Node Pair Hypernymy Detection HEFのハイパーネミー検出モジュールを最初に導入し、2項間のハイパーネミー関係を検出する。 0.77
Unlike previous approaches that manually design a set of classical lexicalsyntactic features, we accomplish the task more directly and automatically by expanding the surface names of terms to their descriptions and utilizing pre-trained language models to represent the relationship between two terms. 従来のレキシカルシンタクティックな特徴の集合を手動で設計する手法とは違って,項の表面名を記述に拡張し,事前学習した言語モデルを用いて2項間の関係を表現することによって,より直接的かつ自動的にタスクを遂行する。 0.73
Given a seed term 𝑛 ∈ N0 and a query term 𝑞 ∈ N0 during training or 𝑞 ∈ C during inference, the hypernymy detection module outputs a representation 𝑟𝑛,𝑞 suggesting how well these two terms form a hypernymy relation. 推論中のシード項 n ∈ N0 とクエリ項 q ∈ N0 が与えられたとき、ハイパーネミー検出加群は表現 rn,q を出力し、これらの2項がハイパーネミー関係をいかにうまく形成するかを示す。 0.69
Note that 𝑛 might not be identical to the anchor 𝑎. n はアンカー a と同一でないかもしれないことに注意。 0.67
Since the surface names of terms do not contain sufficient information for relation detection, we expand the surface names to their descriptions, enabling the model to better understand the semantic of new terms. 項の表面名は関係検出に十分な情報を含んでいないため、その記述に表面名を拡張し、新しい項の意味をよりよく理解できるようにする。 0.72
We utilize the WordNet [25] concept definitions for completing this task. このタスクを完了するにはWordNet[25]概念定義を使用します。 0.78
However, WordNet cannot explain all terms in a taxonomy due to its low coverage. しかし、wordnetは分類学におけるすべての用語を説明することができない。 0.65
Besides, many terms used in taxonomies are complex phrases like “adaptation to climate change” or “bacon lettuce tomato sandwich”. その上、分類学で使用される多くの用語は、「気候変動への適応」や「ベーコンレタストマトサンドイッチ」のような複雑なフレーズです。 0.67
Therefore, we further develop a description generation algorithm descr(·), which generates meaningful and domain-related descriptions for a given term based on WordNet. そこで我々はさらに,wordnetに基づく単語の意味的およびドメイン的記述を生成する記述生成アルゴリズムdescr(·)を開発した。 0.79
Specifically, descr(·) is a dynamic programming algorithm that tends to integrate tokens into longer and explainable noun phrases. 特に、descr(·)は、トークンを長く説明可能な名詞句に統合する傾向がある動的プログラミングアルゴリズムです。 0.73
It describes each noun phrase by the most relative description to the taxonomy’s root’s surface name for domain relevance. これは、各名詞句を、分類学の根源のドメイン関連性に対する表面名に対する最も相対的な記述で記述します。 0.70
The details are shown in Alg. 詳細はAlgに示されています。 0.53
2 in the appendix. The input for hypernymy detection is organized as the input format of a Transformer: 付録の2。 ハイパーネーミング検出用の入力は、Transformerの入力フォーマットとして整理される。 0.54
𝐷𝑛,𝑞 = [<CLS> ⊕ descr(𝑛) ⊕ <SEP> ⊕ descr(𝑞) ⊕ <SEP>] , Dn,q = [<CLS> ・ descr(n) ・ <SEP> ・ descr(q) ・ <SEP>] ・ 0.66
where ⊕ represents concatenation, <CLS> and <SEP> are the special token for classification and sentence separation in the Transformer architecture, respectively. が結合を表す場合、<CLS>と<SEP>はそれぞれトランスフォーマーアーキテクチャにおける分類と文分離のための特別なトークンである。 0.78
As shown in Fig. 2, the hypernymy detection module utilizes a pre-trained DistilBERT [30], a lightweight variant of BERT [5], to 図に示すように。 2、ハイパーニーミー検出モジュールは、事前訓練されたDistilBERT [30]、BERT [5]の軽量変形を利用しています。 0.66
3 3 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: Illustration of the HEF model. 図2: HEFモデルの図化。 0.65
Each circle denotes a seed node or a query node. 各円はシードノードまたはクエリノードを表します。 0.76
The “Anchor’s child*” in Fitting Score calculation denotes the anchor’s child with maximum Pathfinder Score 𝑆𝑝. Fitting Scoreの“Anchor’s child*”は、最大のPathfinder Score Spを持つアンカーの子供を表す。 0.74
learn the representations of cross-text relationships. クロステキスト関係の表現を学ぶ。 0.58
Specifically, we first encode 𝐷𝑛,𝑞 by DistilBERT(·) with positional encoding. 具体的には、まずDn,qをDistilBERT(・)で位置エンコーディングでエンコードします。 0.61
Then we take the final layer representation of <CLS> as the representation of the node pair ⟨𝑛, 𝑞⟩: 次に,<CLS> の最終層表現をノード対 (n, q) の表現として取る。 0.65
𝑟𝑛,𝑞 = DistilBERT(cid:0)𝐷𝑛,𝑞(cid:1) [0] , rn,q = DistilBERT(cid:0)Dn, q(cid:1) [0] , 0.97
where index 0 represents the position of <CLS>’s embedding. where index 0 は <CLS> の埋め込みの位置を表します。 0.76
4.2 Ego-Tree Coherence Modeling We further design a coherence modeling module to evaluate the coherence of the tree structure after attaching the query term 𝑞 into taxonomy T as the anchor 𝑎 ∈ N0’s child. 4.2 ego-tree coherence modeling さらに、クエリー項qをアンカーa ∈ n0の子としてタコノミーtにアタッチした後、ツリー構造のコヒーレンスを評価するコヒーレンスモデリングモジュールを設計する。 0.78
There are two different aspects for considering a taxonomy’s coherence: i) the natural hypernymy relations. 分類学のコヒーレンスを考えるには、2つの異なる側面がある: i) 自然のハイパーニーの関係。 0.66
Since a node’s ancestors in the taxonomy all hold hypernymy relations with it, an explicit comparison among a node’s ancestors is needed to distinguish the most appropriate one; ii) the expert-curated designs, which act as supplement information for maintaining the overall structure. 分類学におけるノードの祖先は、すべてそれとハイパーニーミーな関係を持っているので、ノードの祖先間の明示的な比較は、最も適切なものを区別するために必要である。
訳抜け防止モード: 分類学におけるノードの祖先は、すべてそれとハイパーニーミーな関係を持っている。 ノードの祖先間の明示的な比較が必要である 最もふさわしいものを区別する ; ii) 専門家 - デザインのキュレート 全体構造を維持するための補足情報として機能する。
0.76
Some taxonomies contain latent rules about a node’s absolute or relative levels in a taxonomy. 一部の分類群は、分類法においてノードの絶対レベルまたは相対レベルに関する潜在規則を含む。 0.49
For example, in the biological taxonomy, kingdoms and species are all placed in the second and eighth levels, respectively; in some e-commerce catalog taxonomies, terms that are one level higher than another term contain exactly one more adjective. 例えば、生物学的分類学では、王国と種は、それぞれ2階と8階に置かれ、一部のeコマースカタログ分類学では、他の用語よりも1階高い用語は、ちょうど1つの形容詞を含む。 0.70
Hence, the coherence modeling module needs to: i) model a subtree with the query as a node in it, rather than a single node pair, enabling the model to learn the design of a complete hierarchy; ii) add tree-exclusive features like absolute level or relative level compared to the anchor to assist learning the expert-curated designs of the taxonomy. したがって、コヒーレンスモデリングモジュールは次のようになる: i) 1つのノード対ではなく、クエリをノードとしてサブツリーをモデル化し、モデルが完全な階層の設計を学ぶことを可能にする。
訳抜け防止モード: したがって、コヒーレンスモデリングモジュールは:i()クエリをノードとしてサブツリーをモデル化する必要があります。 単一のノードペアではなく 完全な階層構造の設計を学ぶためのモデル ; ii ) add tree - 絶対レベルや相対レベルのような排他的特徴 専門家の学習を支援するアンカー - 分類学のキュレートされた設計。
0.83
We design the Ego-tree H𝑎, a novel contextual structure of an anchor 𝑎, which consists of all the ancestors and children of 𝑎 (see Fig. 我々は、a のすべての祖先と子からなる新しいアンカー a の文脈構造である ego-tree ha を設計した(図参照)。 0.71
2). This structure contains all relevant nodes to both anchor and query, enabling the model to both compare all hypernymy relations along the root path and detect similarity among query 2). この構造は、アンカーとクエリの両方に関連するすべてのノードを含み、モデルがルートパスに沿ったすべてのハイパーネミー関係を比較し、クエリ間の類似性を検出することができる。 0.74
4 and its potential siblings with minimal computation cost: 4 計算コストを最小限に抑える 潜在的な兄弟姉妹です 0.71
H𝑎 = A𝑎 ∪ {𝑎} ∪ sample_child (𝑎) , ha = aa , {a} , sample_child (a) , , 0.87
(1) where A𝑎 is all ancestors of 𝑎 in the seed taxonomy T 0, and sample_child(·) means sampling at most three children of the anchor based on surface name similarity. (1) aa は種分類 t 0 の a のすべての祖先であり、サンプル_child(·) はアンカーの少なくとも 3 人の子を表面上の名前の類似性に基づいてサンプリングすることを意味する。 0.76
The 3-children sampling is a trade-off between accuracy and speed, for three potential siblings are empirically enough for a comprehensive similarity comparison with the query (especially when these potential siblings are quite different) while decreasing the computation cost. 3人の子供のサンプリングは、精度と速度のトレードオフであり、3人の潜在的な兄弟は、(特にこれらの潜在的な兄弟が非常に異なる場合)クエリと包括的な類似性の比較のために経験的に十分であり、計算コストを削減します。 0.59
Since this procedure is to leverage the similarity brought by a hierarchy’s sibling relations, sampling by surface name similarity is intuitive and costsaving given that similar surface names usually indicate similar terms. この手順は階層の兄弟姉妹関係によってもたらされる類似性を利用するため、表面名の類似性によるサンプリングは直感的でコストの節約である。 0.69
The input of the coherence modeling module includes the anchor’s ego-tree H𝑎 and the query 𝑞 as the anchor’s child in H𝑎. コヒーレンスモデリングモジュールの入力には、アンカーのエゴツリーhaとクエリqがhaのアンカーの子として含まれている。 0.65
For each node 𝑛 ∈ H𝑎, we represent the node pair ⟨𝑛, 𝑞⟩ by the following representations: 各ノード n ∈ Ha に対して、以下の表現でノードの対 (n, q) を表わす。 0.78
• Ego-tree representations. • Ego-tree 表現。 0.72
The ego-tree representation 𝑟𝑛,𝑞 is the output of the hypernymy detection module described in Sec. ego-tree 表現 rn,q は sec で記述された hypernymy detection モジュールの出力である。 0.77
4.1. It suggests the node pair’s relation. 4.1. これはノードペアの関係を示唆する。 0.69
• Absolute level embedding. •絶対レベルの埋め込み。 0.78
The absolute level embedding 𝑙𝑛,𝑞 = AbsLvlEmb (𝑑𝑛), where 𝑑𝑛 is the depth of 𝑛 in the expanded taxonomy. 絶対レベル埋め込み ln,q = AbsLvlEmb (dn) ここで dn は拡大分類学における n の深さである。 0.83
When 𝑛 = 𝑞, 𝑙𝑞,𝑞 = AbsLvlEmb (𝑑𝑎 + 1). n = q の場合、lq,q = AbsLvlEmb (da + 1) となる。 0.87
It assists the modeling of the expert-curated designs about granularity of a certain level. 特定のレベルの粒度に関する専門家による設計のモデリングを支援する。 0.75
• Relative level embedding. •相対レベルの埋め込み。 0.81
The relative level embedding the expanded taxonomy. 拡張分類法を組み込んだ相対レベル。 0.65
It assists the modeling of expertcurated designs about the cross-level comparison. クロスレベル比較に関する専門的な設計のモデリングを支援する。 0.71
• Segment embedding. •セグメント埋め込み。 0.72
The segment embedding of ⟨𝑛, 𝑞⟩ 𝑔𝑛,𝑞 = SegEmb (segment (𝑛)) distinguishes anchor and query n, q, gn,q = SegEmb (segment (n)) のセグメント埋め込みはアンカーとクエリを区別する 0.86
𝑒𝑛,𝑞 = RelLvlEmb(cid:0)𝑑𝑛 − 𝑑𝑞(cid:1), where 𝑑𝑛 is the depth of 𝑛 in en,q = RelLvlEmb(cid:0)dn − dq(cid:1), ここで dn は n の深さである 0.93
Anchor’s Ego-treeQueryNode Pair Encoder(DistilBERT)H ypernymyDetectionMod uleDescriptionEmb.No de Pair Encoder(DistilBERT)N ode Pair Encoder(DistilBERT)N ode Pair Encoder(DistilBERT)………………?Ego-treeRepresentat ionAbsolute Level Emb.Relative LevelEmb.CoherenceMo delingModulePathfinderStopperSegment Emb.ℒCompute Fitting Score for InferenceFitting Score𝐹Anchor’s𝑆𝑝’s𝑆𝑓Anchor’s parentAnchor’s𝑆𝑐’s𝑆𝑏Anchor’s child*𝑎𝑞Ego-tree TransformerEncoder…………Description GenerationCompute Loss for Self-Supervised TrainingMLPsMLPsInpu t Anchor’s Ego-treeQueryNode Pair Encoder(DistilBERT)H ypernymyDetectionMod uleDescriptionEmb.No de Pair Encoder(DistilBERT)N ode Pair Encoder(DistilBERT)N ode Pair Encoder(DistilBERT)………………?Ego-treeRepresentat ionAbsolute Level Emb.Relative LevelEmb.CoherenceMo delingModulePathfinderStopperSegment Emb.ℒCompute Fitting Score for InferenceFitting Score𝐹Anchor’s𝑆𝑝’s𝑆𝑓Anchor’s parentAnchor’s𝑆𝑐’s𝑆𝑏Anchor’s child*𝑎𝑞Ego-tree TransformerEncoder…………Description GenerationCompute Loss for Self-Supervised TrainingMLPsMLPsInpu t 0.63
英語(論文から抽出)日本語訳スコア
path and a particular level. 経路と特定のレベル。 0.67
Thus, we propose the Pathfinder for path selection and the Stopper for level selection, as well as a new self-supervised learning algorithm for training and the Fitting Score calculation for inference. そこで本研究では,経路選択用パスファインダーとレベル選択用ストップパーと,学習用自己教師付き学習アルゴリズムと推論用フィッティングスコア計算を提案する。 0.75
Pathfinder. The Pathfinder detects whether the query is positioned on the right path. パスファインダー。 パスファインダーは、クエリが正しいパスにあるかどうかを検出する。 0.62
This module performs a binary classification using 𝑝𝑎,𝑞. このモジュールは pa,q を用いてバイナリ分類を行う。 0.74
The Pathfinder Score 𝑆𝑝 = 1 if and only if 𝑎 and 𝑞 are on the same root-path: Pathfinder Score Sp = 1 は、a と q が同じルートパス上にある場合のみです。 0.78
𝑆𝑝 (𝑎, 𝑞) = 𝜎(cid:0)W𝑝2 tanh(cid:0)W𝑝1𝑝𝑎,𝑞 + 𝑏𝑝1(cid:1) + 𝑏𝑝2(cid:1) , Sp (a, q) = σ(cid:0)Wp2 tanh(cid:0)Wp1pa,q + bp1(cid:1) + bp2(cid:1) , 0.83
(3) where 𝜎 is the sigmoid function, and W𝑝1, W𝑝2, 𝑏𝑝1, 𝑏𝑝2 are trainable parameters for multi-layer perceptrons. 3) σ がシグモイド関数であり、wp1, wp2, bp1, bp2 は多層パーセプトロンの訓練可能なパラメータである。 0.81
Stopper. The Stopper detects whether the query 𝑞 is placed on the right level, i.e., under the most appropriate anchor 𝑎 on a particular path. ストッパー。 Stopperは、クエリqが正しいレベル、すなわち特定のパス上の最も適切なアンカーaの下に置かれているかどうかを検出する。 0.63
Selecting the right level is nonidentical to selecting the right path since levels are kept in order. 適切なレベルを選択することは、レベルが順番に保持されるため、正しいパスを選択するために非固有である。
訳抜け防止モード: 正しいレベルを選ぶ レベルが順番に保たれているので、正しい経路を選ぶのに非固有です。
0.64
The order of nodes on a path enables us to design a more representative module for further classifying whether the current level is too high (anchor 𝑎 is a coarsegrained ancestor of 𝑞) or too low (𝑎 is a descendant of 𝑞). パス上のノードの順序は、現在のレベルが高すぎる(aがqの粗い祖先である)か低すぎる(aがqの子孫である)かどうかをさらに分類するためのより代表的なモジュールを設計することを可能にする。 0.73
Thus, the Stopper module uses 𝑑𝑎,𝑞 to perform a 3-class classification: searching for a better anchor node needs to go Forward, remain Current, or go Backward, in the taxonomy: [𝑆𝑓 (𝑎, 𝑞) , 𝑆𝑐 (𝑎, 𝑞) , 𝑆𝑏 (𝑎, 𝑞)] = したがって、Stopperモジュールは、da,qを使用して3クラスの分類を実行する。より良いアンカーノードを検索するには、フォワード、カレントのまま、またはバックワードを分類学で行う必要があります: [Sf (a, q) 、 Sc (a, q) 、 Sb (a, q)] = 0.76
softmax(cid:0)W𝑠2 tanh(cid:0)W𝑠1𝑑𝑎,𝑞 + 𝑏𝑠1(cid:1) + 𝑏𝑠2(cid:1) , softmax(cid:0)ws2 tanh(cid:0)ws1da,q + bs1(cid:1) + bs2(cid:1) , 0.75
(4) where W𝑝1, W𝑝2, 𝑏𝑝1, 𝑏𝑝2 are trainable parameters for multi-layer perceptrons. (4) Wp1, Wp2, bp1, bp2は多層パーセプトロンのトレーニング可能なパラメータである。 0.74
Forward Score 𝑆𝑓 , Current Score 𝑆𝑐 and Backward Score 𝑆𝑏 are called Stopper Scores. 前方スコアSf、現在のスコアScおよび後方スコアSbはストッパースコアと呼ばれます。 0.54
Self-Supervised Training. Training the HEF model needs data labels for both the Pathfinder and the Stopper. 自己監督訓練。 HEFモデルのトレーニングには、PathfinderとStopperの両方のデータラベルが必要です。 0.66
The tagging scheme is illustrated in Fig. タグ付けスキームは図に示します。 0.62
3. There are totally four kinds of PathfinderStopper label combinations since Pathfinder Score is always 1 when Stopper Tag is Forward or Current. 3. pathfinderstopperラベルの組み合わせは4種類ある。pathfinderスコアは常に1で、stopperタグが前方または現在にある。 0.80
The training process of HEF is shown in Alg. HEFのトレーニングプロセスはAlgで示されています。 0.72
1. Specifically, we sample the ego-tree of all four types of nodes for a query: 𝑞’s parent 𝑎, 𝑎’s ancestors, 𝑎’s descendants and other nodes, as a mini-batch for training the Pathfinder and Stopper simultaneously. 1. 具体的には、クエリの4種類のノードのエゴツリーを、PathfinderとStopperを同時にトレーニングするためのミニバッチとして、q’s parent a、a’s ancestors、a’s descendants、および他のノードとしてサンプリングする。 0.77
The optimization of Pathfinder and Stopper can be regarded as a multi-task learning process. PathfinderとStopperの最適化は、マルチタスク学習プロセスと見なすことができます。 0.78
The loss L𝑞 in Alg. Algにおける損失Lq。 0.83
1 is a linear combination of the loss from Pathfinder and Stopper: 1はPathfinderとStopperの損失の線形結合である。 0.65
L𝑞 = − 𝜂 1 |X𝑞| Lq = −η 1 |Xq| 0.77
− (1 − 𝜂) ∑︁ − (1 − 𝜂) ∑︁ 0.82
𝑎∈X𝑞 1 |X𝑞| a∈Xq 1 |Xq| 0.59
BCELoss(cid:16) ˆ𝑆𝑝 (𝑎, 𝑞) , 𝑆𝑝 (𝑎, 𝑞)(cid:17) ∑︁ BCELoss(cid:16) >Sp (a, q) , Sp (a, q)(cid:17) 0.91
∑︁ 𝑎∈X𝑞 𝑘∈{𝑓 ,𝑐,𝑏} ∑︁ a∈Xq 𝑘∈{𝑓 ,𝑐,𝑏} 0.77
ˆ𝑠𝑘 (𝑎, 𝑞) log 𝑠𝑘 (𝑎, 𝑞), ˆ𝑠𝑘 (𝑎, 𝑞) log 𝑠𝑘 (𝑎, 𝑞), 0.79
(5) where BCELoss (·) denotes the binary cross entropy, and 𝜂 is the weight of multi-task learning. (5) BCELoss (·) は二進的クロスエントロピーを表し、η はマルチタスク学習の重みである。 0.76
Fitting Score-based Inference. スコアベースの推論。 0.51
During inference, evaluation of an anchor-query pair ⟨𝑎, 𝑞⟩ should consider both Pathfinder’s path evaluation and Stopper’s level evaluation. 推論中、アンカー-クエリ対の評価は、パスファインダーのパス評価とストッパーのレベル評価の両方を考慮すべきである。
訳抜け防止モード: 推論中,アンカー-クエリペアのa,aの評価 パスファインダーのパス評価とストッパーのレベル評価の両方を考慮すべきである。
0.76
However, instead of merely using 𝑆𝑝 and 𝑆𝑐, the multi-classifying Stopper also enables the HEF model to disambiguate the most suited anchor from its neighbors (its direct parent and children) and self-correct its level prediction by exchanging scores with its neighbors to find the best position for maintaining the taxonomy’s coherence. しかし、Stopperは単にSpとScを使うのではなく、HEFモデルを隣人(親子)から最も適したアンカーを曖昧にし、隣人とスコアを交換してそのレベルの予測を自己修正することで、分類の一貫性を維持するのに最適な位置を見つけることができる。 0.68
Thus, We Figure 3: An illustration of the self-supervision data labels for Pathfinder and Stopper. よって、我々 図3:PathfinderとStopperの自己監督データラベルの図です。 0.71
with other nodes in the ego-tree, where: egoツリーの他のノードと一緒に where: 0.86
segment (𝑛, 𝑞) = segment (n, q) = 0.85
if 𝑛 is the anchor, if 𝑛 is the query, otherwise. n がアンカーの場合、n がクエリの場合、そうでなければ。 0.69
0, 1, 2,   0, 1, 2,   0.85
The input of the coherence modeling module 𝑅𝑎,𝑞 ∈ R(|H𝑎 |+3)×𝑑 is the sum of the above embeddings calculated with the anchor’s ego-tree and the query, organized as the input of a Transformer: コヒーレンスモデリングモジュール Ra,q ∈ R(|Ha |+3)×d の入力は、アンカーのエゴツリーで計算された上記の埋め込みと、トランスフォーマーの入力として整理されたクエリの和である。
訳抜け防止モード: コヒーレンスモデリング加群 Ra,q ∈ R(|Ha |+3)×d の入力は、アンカーのエゴ木で計算された上記の埋め込みの和である そして、Transformerの入力として整理されたクエリ:
0.80
𝑒<𝐶𝐿𝑆 > ⊕ 𝑒<𝐶𝐿𝑆 > 𝑒<𝐶𝐿𝑆 > ⊕ 𝑒<𝐶𝐿𝑆 > 0.85
𝑅𝑎,𝑞 = (cid:0)𝑟𝑛,𝑞 + 𝑙𝑛,𝑞 + 𝑒𝑛,𝑞 + 𝑔𝑛,𝑞(cid:1) , 𝑅𝑎,𝑞 = (cid:0)rn,q + ln,q + en,q + gn,q(cid:1) , 0.90
𝑛∈H𝑎∪{𝑞} q} (複数形 qs) 0.38
(2) where 𝑑 is the dimension of embedding, 𝑒<𝐶𝐿𝑆 > is a randomly initialized placeholder vector for obtaining the ego-tree’s path and level coherence representations, and ⊕ denotes concatenation. 2) d が埋め込みの次元である場合、e<CLS > は ego-tree の経路とレベルコヒーレンス表現を得るためのランダムに初期化されたプレースホルダーベクトルであり、t は連結を表す。 0.78
We implement the coherence modeling module using a Transformer encoder. Transformerエンコーダを用いてコヒーレンスモデリングモジュールを実装します。 0.80
Transformers are powerful to model sequences, but they lack positional information to process the relations among nodes in graphs. トランスフォーマーはシーケンスをモデル化するのに強力だが、グラフ内のノード間の関係を処理する位置情報がない。 0.64
However, in a hierarchy like taxonomy, the level of nodes can be used as positional information, which simultaneously eliminates the positional difference of nodes on the same level. しかし、分類学のような階層では、ノードのレベルを位置情報として使用することができ、同時に同じレベルのノードの位置差を排除します。 0.75
Transformers are also strong enough to integrate multiplesource information by adding their embeddings, thus they are quite suitable for modeling tree structures. トランスフォーマーは、埋め込みを追加することで複数のソース情報を統合できるほど強力であるため、ツリー構造をモデリングするのに非常に適しています。
訳抜け防止モード: トランスフォーマーも十分強い 埋め込みを追加することで 複数ソース情報を統合します 木の構造をモデル化するのに非常に適しています
0.74
In our HEF model, as shown in Fig. 当社のHEFモデルでは、図に示すように。 0.72
2, by using two <CLS>s in the module’s input, we can obtain two different representations: 𝑝𝑎,𝑞 representing the coherence of hypernymy relations (whether the path is correct), and 𝑑𝑎,𝑞 representing the coherence of inter-level granularity (whether the level is correct), evaluating how well the query fits the current position in the taxonomy in both horizontal and vertical perspective: 2) モジュールの入力に2つの<cls>を用いて、ハイパーニーミー関係のコヒーレンスを表すpa,q(パスが正しい場合)と、レベル間の粒度のコヒーレンスを表すda,q(レベルが正しい場合)の2つの異なる表現を得ることができる。
訳抜け防止モード: 2 モジュールの入力に 2 < cls > s を使用する。 ハイパーニーミー関係のコヒーレンスを表すpa,q(パスが正しいかどうか)という2つの異なる表現が得られる。 そしてda,qは、粒度間のコヒーレンスを表します。 (レベルが正しいかどうか) 水平と垂直の両方の観点から、クエリが分類学の現在の位置にどの程度適合するかを評価する。
0.75
𝑝𝑎,𝑞 = TransformerEncoder(c id:0)𝑅𝑎,𝑞(cid:1) [0] 𝑑𝑎,𝑞 = TransformerEncoder(c id:0)𝑅𝑎,𝑞(cid:1) [1] , pa,q = TransformerEncoder(c id:0)Ra,q(cid:1) [0] da,q = TransformerEncoder(c id:0)Ra,q(cid:1) [1] 0.97
where 0 and 1 are the position indexes of the two <CLS>s. ここで 0 と 1 は 2 つの <CLS> の位置指数である。 0.76
4.3 Fitting Score-based Training and Inference The two representations 𝑝𝑎,𝑞 and 𝑑𝑎,𝑞 need to be transformed into scores indicating the fitness of placing the query 𝑞 on a particular 4.3 スコアベースのトレーニングと推論 2つの表現 pa,q と da,q を特定のクエリ q を配置する適性を示すスコアに変換する必要がある。 0.77
5 foodbeveragenutrimen t…………vitamincoffeetea…………black teaoolong……foodbeveragenutrimen t…………vitamincoffeetea…………black teaoolong……Query nodeSelf-supervision anchor nodesPathfinder Score = 0(Wrong path)PathfinderStopp erPathfinder Score = 1(Right path)Stopper Tag = FORWARD(Child is better)Stopper Tag = CURRENT(Right level)Stopper Tag = BACKWARD(Parent is better) 5 foodbeveragenutrimen t............vitamin coffeetea......... Black teaoolong......foodb everagenutriment.... ..vitamincoffeetea.. ....... Black teaoolong...Query nodeSelf-supervision anchor nodePathfinder Score = 0(Wrong path)PathfinderStopp erPathfinder Score = 1(Right path)Stopper Tag = FORWARD(Child is Better)Stopper Tag = CURRENT(Right Level)Stopper Tag = BACKWARD(Parent is Better)。 0.69
英語(論文から抽出)日本語訳スコア
Θ ← Θ0 ⊲ Root is not used as query X𝑞 = {} ⊲ Initialize anchor set 𝑝 ← parent (𝑞) ⊲ Reference node of labeling X𝑞 ← X𝑞 ∪ {𝑝} ⊲ Ground Truth Parent: 𝑆𝑝 = 1, 𝑆𝑐 = 1 ⊲ Ancestors: 𝑆𝑝 = 1, 𝑆𝑓 = 1 Θ ← Θ0 Xq = {} シュルートはクエリ Xq = {} > 初期化アンカー集合 p > 親 (q) > ラベル付けの参照ノード Xq > Xq > {p} > グラウンド・トゥルース・ペアレント: Sp = 1, Sc = 1 > Ancestors: Sp = 1, Sf = 1 である。 0.84
for 𝑞 ← N0 − root(cid:0)T 0(cid:1) do X𝑞 ← X𝑞 ∪ sample(cid:0)A𝑝(cid:1) X𝑞 ← X𝑞 ∪ sample(cid:0)D𝑝(cid:1) ⊲ Descendants: 𝑆𝑝 = 1, 𝑆𝑏 = 1 X𝑞 ← X𝑞 ∪ sample(cid:0)N0 − {𝑝} − A𝑝 − D𝑝(cid:1) 例えば、q の N0 − root(cid:0)T 0(cid:1) do Xq の Xq のサンプル(cid:0)Ap(cid:1) Xq の Xq のサンプル(cid:0)Dp(cid:1) の Descendants: Sp = 1, Sb = 1 Xq の Xq のサンプル(cid:0)N0 − {p} − Ap − Dp(cid:1) 0.83
Algorithm 1 Self-Supervised Training Process of HEF. アルゴリズム1 HEFの自己監督トレーニングプロセス。 0.76
1: procedure TrainEpoch(T 0, Θ0) 2: 3: 4: 5: 6: 7: 8: 9: 10: 11: 12: 13: 14: 15: 16: 17: 18: 19: end procedure 1: procedure TrainEpoch(T 0, Θ0) 2: 3: 4: 5: 6: 7: 8: 9: 10: 11: 12: 13: 14: 15: 16: 17: 18: 19: end procedure 0.87
Compute 𝑆𝑝 (𝑎, 𝑞) using Eqn. Eqn を用いた計算Sp (a, q)。 0.77
3 Compute 𝑆𝑓 (𝑎, 𝑞) , 𝑆𝑐 (𝑎, 𝑞) , 𝑆𝑏 (𝑎, 𝑞) using Eqn. 3 Compute Sf (a, q) , Sc (a, q) , Sb (a, q) を Eqn を用いて計算する。 0.90
4 end for Compute L𝑞 with 𝑆𝑝, 𝑆𝑓 , 𝑆𝑐, 𝑆𝑏 using Eqn. 4 Eqn を使用した Sp, Sf , Sc, Sb による Compute Lq の終了。 0.87
5 Θ ← optimize(cid:0)Θ, L𝑞(cid:1) 5 最適化 (cid:0) と Lq (cid:1) 0.82
⊲ Other nodes: 𝑆𝑝 = 0, 𝑆𝑏 = 1 他のノード: Sp = 0、Sb = 1。 0.77
for 𝑎 ← X𝑞 do Xq do (複数形 Xq dos) 0.45
end for return Θ return θ の終了 0.72
is on the right path. 正しい道にあるのです 0.54
introduce the Fitting Score function during inference. 推論中にFitting Score関数を導入する。 0.65
For a new query term 𝑞 ∈ C, we first obtain the Pathfinder Scores and Stopper Scores of all node pairs ⟨𝑎, 𝑞⟩ , 𝑎 ∈ N0. 新しいクエリ語 q ∈ C に対して、まずすべてのノード対 qa, q , a ∈ N0 の Pathfinder Scores と Stopper Scores を得る。
訳抜け防止モード: 新しい問合せ項 q ∈ C に対して、まず全てのノード対のPathfinder Scores と Stopper Scores を得る。 𝑞⟩ , 𝑎 ∈ N0 .
0.81
For each anchor node 𝑎, we assign its Fitting Score by multiplying the following four items: • 𝑎’s Pathfinder Score: 𝑆𝑝 (𝑎, 𝑞), which suggests whether 𝑎 • 𝑎’s parent’s Forward Score: 𝑆𝑓 (parent (𝑎) , 𝑞), which distinguishes 𝑎 and 𝑎’s parent, and rectifies 𝑎’s Current Score. a’s Pathfinder Score: Sp (a, q) • a’s parent’s Forward Score: Sf (a) , q) と a’s parent を区別し、a’s Current Score を修正するかどうかを示唆する。
訳抜け防止モード: 各アンカーノードaに対しては、次の4項目を乗じてそのフィッティングスコアを割り当てます。 • a’s Pathfinder Score : Sp ( a, q )。 a •aの親のフォワードスコア:Sf(親(a))かどうかを示します。 a と ’ の親を区別します。 そして、現在のスコアを修正します。
0.75
When 𝑎 is the root node, we assign this item as a small number like 1𝑒 − 4 since the first level of taxonomy is likely to remain unchanged. a がルートノードの場合、最初のレベルの分類が変更されない可能性があるため、この項目を 1e − 4 のような小数に割り当てます。 0.70
• 𝑎’s Current Score: 𝑆𝑐 (𝑎, 𝑞), which suggests whether 𝑎 is • 𝑎’s child with maximum Pathfinder Score’s Backward 𝑎 = arg max𝑐𝑎∈child(𝑎) 𝑆𝑝 (𝑐𝑎, 𝑞), which distinguishes 𝑎 and 𝑎’s children, and rectifies 𝑎’s Current Score. • a のCurrent Score: Sc (a, q) は、a が • a の最大のPathfinder Score のbackward a = arg maxcaıchild(a) Sp (ca, q) であるかどうかを示し、a と a のCurrent Score を区別し、a のCurrent Score を修正している。
訳抜け防止モード: • の現在のスコア: Sc (a, q)。 これは、a が最大 Pathfinder Score の Backward a = arg maxca∈child(a ) Sp (ca, q ) を持つ ’ の子かどうかを示唆している。 これは、aとaの子供を区別し、’の現在のスコアを修正します。
0.85
Since 𝑎 might have multiple children, we pick the child with max Pathfinder Score, for larger 𝑆𝑝 indicates a better hypernymy relation to 𝑞. a は複数の子を持つ可能性があるので、maxパスファインダースコアを持つ子を選び、より大きな sp は q に対するより優れたハイパーニミー関係を示す。 0.59
When 𝑎 is a leaf node, we assign this item as the proportion of leaf nodes in the seed taxonomy to keep its overall design. a が葉ノードである場合には、この項目を種分類における葉ノードの割合として割り当て、その全体設計を維持する。 0.76
Score: 𝑆𝑏(cid:0)𝑐∗ スコア: Sb(cid:0)c∗ 0.76
The Fitting Score of ⟨𝑎, 𝑞⟩ is given by: a, q のフィッティングスコアは次のとおりである。 0.59
𝐹 (𝑎, 𝑞) = 𝑆𝑝 (𝑎, 𝑞) · 𝑆𝑓 (parent (𝑎) , 𝑞) · 𝑆𝑐 (𝑎, 𝑞) · 𝑆𝑏(cid:0)𝑐∗ 𝑎, 𝑞(cid:1) 𝐹 (𝑎, 𝑞) = 𝑆𝑝 (𝑎, 𝑞) · 𝑆𝑓 (parent (𝑎) , 𝑞) · 𝑆𝑐 (𝑎, 𝑞) · 𝑆𝑏(cid:0)𝑐∗ 𝑎, 𝑞(cid:1) 0.95
𝑎, 𝑞(cid:1) , 𝑐∗ a, q(cid: 1), c∗ 0.89
on the right level. (6) 正しいレベルだ (6) 0.61
𝑐∗ 𝑎 = arg max 𝑐𝑎∈child(𝑎) a = arg max ca∈child(a) 0.90
𝑆𝑝 (𝑐𝑎, 𝑞). 𝑆𝑝 (𝑐𝑎, 𝑞). 0.85
The Fitting Score can be computed using ordered 𝑆𝑝, 𝑆𝑓 , 𝑆𝑐, 𝑆𝑏 arrays and the seed taxonomy’s adjacency matrix. フィッティングスコアは、順序付きSp、Sf、Sc、Sb配列、および種分類の隣接行列を用いて計算することができる。 0.73
Since a tree’s adjacency matrix is sparse, the time complexity of Fitting Score computation is low. 木の隣接行列はスパースであるため、フィッティングスコア計算の時間複雑性は低い。 0.61
After calculating the Fitting Scores between all seed nodes and the query, we select the seed node with the highest Fitting Score as the query’s parent in the expanded taxonomy: 全てのシードノードとクエリの間の適合スコアを計算した後、拡張分類において、最も適合スコアの高いシードノードをクエリの親として選択する。 0.74
parent (𝑞) (cid:66) arg max 𝑎∈N0 親 (q) (cid:66) arg max a∈N0 0.74
𝐹 (𝑎, 𝑞) . 𝐹 (𝑎, 𝑞) . 0.85
(7) 6 Table 1: Statistics of datasets. (7) 6 表1:データセットの統計。 0.86
|𝑁 | and |𝐸𝑂| are the numbers of nodes and edges in the original datasets, respectively. |N | と |EO| はそれぞれ元のデータセットのノード数とエッジ数である。 0.84
𝐷 is the depth of the taxonomy. Dは分類学の深さである。 0.76
We adopt the spanning tree of each dataset, and |𝐸| is the number of remaining edges. 我々は各データセットのスパンニングツリーを採用し、|E| は残りのエッジの数である。 0.72
Dataset SemEval16-Env SemEval16-Sci SemEval16-Food データセット SemEval16-Env SemEval16-Sci SemEval16-Food 0.49
|𝑁 | 261 429 1486 |𝑁 | 261 429 1486 0.99
|𝐸𝑂| 261 452 1576 |𝐸𝑂| 261 452 1576 0.84
|𝐸| 260 428 1485 |𝐸| 260 428 1485 0.84
𝐷 6 8 8 5 EXPERIMENTS In this section, we first introduce our experimental setups, including datasets, our implementation details, evaluation criteria, and a brief description of the compared baseline methods. 𝐷 6 8 8 5 実験 この節では、まず、データセット、実装の詳細、評価基準、比較基準法に関する簡単な説明を含む実験的な設定を紹介します。 0.74
Then, we provide extensive evaluation results for overall model performance, performance contribution brought by each design, and sensitivity analysis of the multi-task learning weight 𝜂 in Equation 5. 次に,モデル全体のパフォーマンス,各設計によるパフォーマンス貢献,および等式5におけるマルチタスク学習重量ηの感度解析について,広範な評価結果を提供する。 0.86
In-depth visualizations of hypernymy detection and coherence modeling modules are provided to analyze the model’s inner behavior. モデルの内部挙動を分析するために,ハイパーネミー検出とコヒーレンスモデリングモジュールの詳細な可視化を行う。 0.86
We also provide a case study in the appendix.1 appendix.1 のケーススタディも提供します。 0.65
5.1 Experimental Setup 5.1.1 Datasets. 5.1 実験用セットアップ 5.1.1 データセット 0.54
We evaluate HEF on three public benchmark datasets retrieved from SemEval-2016 Task 13 [2]. SemEval-2016 Task 13 [2]から取得した3つの公開ベンチマークデータセット上でHEFを評価します。 0.60
This task contains three taxonomies in the domain of Environment (SemEval16-Env), Science (SemEval16-Sci), and Food (SemEval16-Food), respectively. このタスクには、環境領域(SemEval16-Env)、科学(SemEval16-Sci)、食品(SemEval16-Food)の3つの分類が含まれる。 0.72
The statistics of the benchmark datasets are provided in Table 1. ベンチマークデータセットの統計は、テーブル1で提供される。 0.74
Note that the original dataset may not form a tree. 元のデータセットはツリーを形成しないことに注意してください。 0.59
In this case, we use a spanning tree of the taxonomy instead of the original graph to match the problem definition. この場合、問題定義に一致するように、元のグラフの代わりに分類学のスパンニングツリーを使用します。 0.70
The pruning process only removes less than 6% of the total edges, keeping the taxonomy’s information and avoiding multiple ground truth parents for a single node. 刈り取りのプロセスは、全体のエッジの6%未満を取り除き、分類の情報を保持し、単一のノードに対する複数の根拠真理の親を避けるだけである。 0.72
Since HEF and the compared baselines [34, 47] are all limited to adding new terms without modifying the seed taxonomy, nodes in the test and validation set can only sample from leaf nodes to guarantee that the parents of test or validation nodes exist in the seed taxonomy. HEFと比較ベースライン[34,47]はすべて種分類を変更することなく新しい用語を追加することに制限されているため、テストおよび検証セットのノードは葉ノードからのみサンプリングすることができ、テストまたは検証ノードの親が種分類に存在していることを保証できる。 0.76
This is also the sampling strategy of TaxoExpan [34]. これはTaxoExpan[34]のサンプリング戦略でもある。 0.71
Following the previous state-of-the-art model STEAM [47], we exclude 20% of the nodes in each dataset, of which ten nodes of each dataset are separated as the validation set for early stopping, and the rest as the test set. 前回の最新モデルSTEAM [47]に従い、各データセットのノードの20%を除外し、各データセットの10ノードを早期停止のためのバリデーションセットとして、残りをテストセットとして分離します。 0.79
The nodes not included in the validation set and test set are seed nodes for self-supervision in the training phase and potential anchor nodes in the inference phase. 検証セットおよびテストセットに含まれないノードは、トレーニングフェーズにおける自己監視のためのシードノードと、推論フェーズにおける潜在的なアンカーノードである。 0.73
Note that pruning the dataset does not affect the node count, thus the scale of the dataset remains identical to our baselines’ settings. データセットのprunはノード数に影響しないので、データセットのスケールはベースラインの設定と変わらないことに注意してください。 0.67
5.1.2 Baselines for Comparison. 5.1.2 比較基準。 0.64
We compare our proposed HEF model with the following baseline approaches: • BERT+MLP: This method utilizes BERT [5] to perform hypernym detection. 提案したHEFモデルと以下のベースラインアプローチを比較します。 • BERT+MLP: この方法はBERT [5]を使用してハイパーニム検出を行います。 0.71
This model’s input is the term’s surface name, and the representation of BERT’s classification token ⟨CLS⟩ is fed into a feed-forward layer to score whether the first sequence is the ground-truth parent. このモデルの入力は用語の表面名であり、BERTの分類トークン「CLS」の表現はフィードフォワード層に供給され、最初のシーケンスがグランドトゥルース親かどうかを判定します。
訳抜け防止モード: このモデルの入力は、用語のサーフェス名です。 BERTの分類トークン「CLS」の表現はフィード-フォワード層に供給されます。 最初のシーケンスがグラウンドであるかどうかを測る - 真実の親。
0.74
1The code will be available at https://github.com/s heryc/HEF. 1コードはhttps://github.com/s heryc/HEF.comで入手できる。 0.50
英語(論文から抽出)日本語訳スコア
Table 2: Comparison of the proposed method against state-of-the-art methods. 表2:提案手法と最先端の手法の比較。 0.65
All metrics are presented in percentages (%). すべての指標はパーセンテージ(%)で示されます。 0.73
Best results for each metric of each dataset are marked in bold. 各データセットの各メトリックの最良の結果は、太字でマークされる。 0.71
Reported performance is the average of three runs using different random seeds. 報告されたパフォーマンスは、ランダムな種を使った3回のランの平均である。 0.51
The MRR of TAXI [26] is inaccessible since it outputs the whole taxonomy instead of node rankings. TAXI[26]のMRRはノードランキングの代わりに全分類を出力するためアクセス不能である。 0.75
The performance of baseline methods are retrieved from [47]. ベースラインメソッドのパフォーマンスは[47]から取得されます。 0.82
Dataset Metric Dataset Metric 0.85
BERT+MLP TAXI [26] BERT+MLP TAXI [26] 0.88
HypeNet [37] TaxoExpan [34] HypeNet [37] TaxoExpan [34] 0.85
STEAM [47] HEF STEAM[47] HEF 0.84
SemEval16-Env SemEval16-Env 0.47
SemEval16-Sci SemEval16-Sci 0.47
SemEval16-Food SemEval16-Food 0.47
Acc MRR Wu&P Acc MRR Wu&P Acc MRR Wu&P 47.0 11.1 16.7 39.2 63.2 16.7 54.2 11.1 67.0 36.1 55.3 73.5 Acc MRR Wu&P Acc MRR Wu&P Acc MRR Wu&P 47.0 11.1 16.7 39.2 63.2 16.7 54.2 11.1 67.0 36.1 55.3 73.5 0.63
21.523.7 32.3 46.9 65.3 21.523.7 32.3 46.9 65.3 0.39
47.9 44.7 55.8 54.8 69.6 71.4 47.9 44.7 55.8 54.8 69.6 71.4 0.43
11.5 13.0 15.4 27.8 36.5 53.6 11.5 13.0 15.4 27.8 36.5 53.6 0.43
15.722.6 44.8 48.3 62.7 15.722.6 44.8 48.3 62.7 0.39
43.6 32.9 50.7 57.6 68.2 75.6 43.6 32.9 50.7 57.6 68.2 75.6 0.43
10.5 18.2 20.5 27.6 34.2 47.9 10.5 18.2 20.5 27.6 34.2 47.9 0.43
14.927.3 40.5 43.4 55.5 14.927.3 40.5 43.4 55.5 0.39
• HypeNet [37]: HypeNet is an LSTM-based hypernym extraction model that scores a term pair by representing node paths in the dependency tree. • HypeNet [37]: HypeNetはLSTMベースのハイパーネム抽出モデルであり、依存ツリー内のノードパスを表現して項ペアをスコアする。 0.78
• TAXI [26]: TAXI was the top solution of SemEval-2016 Task 13. • TAXI [26]: TAXIはSemEval-2016 Task 13の一番上のソリューションです。 0.93
It explicitly splits the task into a pipeline of hypernym detection using substring matching and pattern extraction, and hypernym pruning to avoid multiple parents. タスクを、サブストリングマッチングとパターン抽出を使用してハイパーネム検出のパイプラインに明示的に分割し、複数の親を避けるためにハイパーネムプルーニングを行う。
訳抜け防止モード: タスクをハイパーnym検出のパイプラインに明示的に分割する サブ文字列マッチングとパターン抽出とハイパーニムプラニングを使用して、複数の親を避ける。
0.72
• TaxoExpan [34]: TaxoExpan is a self-supervised taxonomy expansion model. • TaxoExpan [34]: TaxoExpanは自己監督型の分類学拡張モデルです。 0.88
The anchor’s representation is modeled by a graph network of its Egonet with consideration of relative levels, and the parental relationship is scored by a feed-forward layer. アンカーの表現は相対レベルを考慮したEgonetのグラフネットワークによってモデル化され、親の関係はフィードフォワード層によって評価される。 0.78
BERT embedding is used as its input instead of the model’s original configuration. BERT埋め込みは、モデルのオリジナルの設定の代わりに入力として使用される。 0.79
• STEAM [47]: STEAM is the state-of-the-art self-supervised taxonomy expansion model, which scores parental relations by ensembling three classifiers considering graph, contextual, and hand-crafted lexical-syntactic features, respectively. •STEAM[47]:STEAMは,グラフ,文脈,手作りの語彙・シンタクティックな特徴を考慮した3つの分類器を組込み,親の関係を評価する,最先端の自己管理型分類拡張モデルである。 0.65
Implementation Details. In our setting, the coherence mod5.1.3 eling module is a 3-layer, 6-head, 768-dimensional Transformer encoder initialized from Gaussian distribution N (0, 0.02). 実装の詳細。 この設定では、コヒーレンス mod5.1.3 elingモジュールはガウス分布 n (0, 0.02) から初期化された3層、6ヘッド、768次元トランスエンコーダである。 0.63
The first hidden layers of Pathfinder and Stopper are both 300-dimensional. PathfinderとStopperの最初の隠された層はどちらも300次元です。 0.70
The input to the hypernymy detection module is either truncated or padded to a length of 64. ハイパーネミー検出モジュールへの入力は、切り落とされるか、64の長さにパッドされる。 0.66
Each training step contains a set of 32 query-ego-tree pairs of 32 query nodes using gradient accumulation, with each query-ego-tree pair set containing one ground-truth parent (𝑆𝑝 = 1, 𝑆𝑐 = 1), at most 6 ground-truth parent’s ancestors (𝑆𝑝 = 1, 𝑆𝑓 = 1), at most 8 ground-truth parent’s descendants (𝑆𝑝 = 1, 𝑆𝑏 = 1), and at least 16 other nodes (𝑆𝑝 = 0, 𝑆𝑏 = 1). 各トレーニングステップは、勾配累積を用いた32のクエリノードの32のクエリ-エゴ-ツリーペアのセットを含み、各クエリ-エゴ-ツリーペアセットは、1つの接地親(sp = 1, sc = 1)、少なくとも6つの接地親の祖先(sp = 1, sf = 1)、少なくとも8つの接地親の子孫(sp = 1, sb = 1)、および少なくとも16の他のノード(sp = 0, sb = 1)を含む。 0.75
The hyperparameters above are empirically set, since our algorithm is not sensitive to the setting of splits. 我々のアルゴリズムは分割の設定に敏感ではないため、上記のハイパーパラメータは経験的にセットされる。 0.70
Each dataset is trained for 150 epochs. 各データセットは150エポックでトレーニングされる。 0.66
In a single epoch, each seed node is trained as the query exactly once. 単一のエポックでは、各シードノードは、正確に1回だけクエリとしてトレーニングされる。 0.46
AdamW [21] is used for optimization with 𝜖 set to 1×10−6. AdamW[21] は ε を 1×10−6 とする最適化に使用される。 0.67
A linear warm-up is adopted with the learning rate linearly rise from 0 to 5e-5 in the first 10% of total training steps and linearly drop to 0 at the end of 150 epochs. 線形ウォームアップを採用し、総トレーニングステップの最初の10%で0から5e-5に直線的に上昇し、150エポックの終わりに直線的に0に低下する。 0.69
The multi-task learning weight 𝜂 is set to 0.9. マルチタスク学習重みηを0.9に設定する。 0.76
After each epoch, we validate the model and save the model with the best performance on the validation set. 各エポックの後、モデルの検証を行い、バリデーションセット上で最高のパフォーマンスでモデルを保存します。 0.78
These hyperparameters are tuned on on SemEval16-Env’s validation set, and are used across all datasets and experiments unless specified in the ablation studies or sensitivity analysis. これらのハイパーパラメータはsemeval16-envのバリデーションセットでチューニングされ、アブレーション研究や感度分析で特定されない限り、すべてのデータセットや実験で使用される。 0.69
5.1.4 Evaluation Metrics. 5.1.4 評価指標 0.61
Assume 𝑘 (cid:66) |C| to be the term count of the test set, {𝑝1, 𝑝2, · · · , 𝑝𝑘} to be the predicted parents for test set queries, and { ˆ𝑝1, ˆ𝑝2, · · · , ˆ𝑝𝑘} to be the ground truth parents accordingly. k (cid:66) |c| をテスト集合の項数、 {p1, p2, · · · · · · , pk} をテスト集合問合せの予測親とし、 { ~p1, ~p2, · · · · · , pk} を基底真理親とする。 0.78
Following the previous solutions [23, 40, 47], we adopt the following three metrics as evaluation criteria. これまでのソリューション[23, 40, 47]に続いて, 以下の3つの指標を評価基準として採用する。 0.72
• Accuracy (Acc): It measures the proportion that the predicted parent for each node in the test set exactly matches the ground truth parent: • 精度 (Acc): テストセットの各ノードの予測親が、基礎となる真理の親と正確に一致する割合を測定する。 0.83
Acc = Hit@1 = Acc = Hit@1 です。 0.89
1 𝑘 I (𝑝𝑖 = ˆ𝑝𝑖), 1 𝑘 i (pi = ) である。 0.82
𝑘∑︁ 𝑖=1 where I(·) denotes the indicator function, • Mean Reciprocal Rank (MRR): It calculates the average 𝑘∑︁ 𝑖=1 ここでI(·)はインジケータ関数、 •平均相互ランク(MRR):それは平均を計算します。 0.68
reciprocal rank of each test node’s ground truth parent: 各テストノードの基底真理親の相互ランク: 0.66
𝑘∑︁ 𝑖=1 MRR = 𝑘∑︁ 𝑖=1 MRR = 0.68
1 𝑘 1 rank ( ˆ𝑝𝑖) , 1 𝑘 1 rank (複数形 ranks) 0.76
• Wu & Palmer Similarity (Wu&P) [44]: It is a tree-based measurement that judges how close the predicted and ground truth parents are in the seed taxonomy: • Wu & Palmer similarity (Wu&P) [44]: 予測された真理の親が種分類学にどれだけ近いかを判断するツリーベースの測定です。
訳抜け防止モード: •Wu & Palmer similarity (Wu&P ) [ 44 ] : 木に基づく測定 予測された真実と根底にある真実の親が 種子分類にどれほど近いか判断します
0.86
Wu&P = 1 𝑘 Wu&P = 1 𝑘 0.85
2 × depth (LCA (𝑝𝑖, ˆ𝑝𝑖)) depth (𝑝𝑖) + depth ( ˆ𝑝𝑖) , 2 × depth (LCA (pi, spi)) depth (pi) + depth ( spi) である。 0.83
where depth(·) is the node’s depth in the seed taxonomy and LCA(·, ·) is the least common ancestor of two nodes. 深さ(·) は種子分類学におけるノードの深さであり、lca(·, ·) は2つのノードの最も一般的な祖先である。 0.81
𝑘∑︁ 𝑖=1 5.2 Main Results The performance of HEF is shown in Table 2. 𝑘∑︁ 𝑖=1 5.2 主な結果 HEFのパフォーマンスを表2に示します。 0.70
HEF achieves the best performance on all datasets and surpasses previous state-of-the-art models with a significant improvement on all metrics. HEFはすべてのデータセットで最高のパフォーマンスを達成し、すべてのメトリクスで大幅に改善された従来の最先端モデルを上回る。 0.64
From the table, we get an overview of how taxonomy expansion models evolve chronologically. 表から,分類展開モデルがどのように時系列的に進化するかを概観する。 0.66
The solution of BERT+MLP does not utilize any structural and lexical-syntactic features of terms, and the insufficiency of information attributes to its poor results. BERT+MLPのソリューションは、用語の構造的および語彙的構文的特徴と、その悪い結果に対する情報属性の不十分を利用していません。 0.63
Models of the first generation like TAXI and HypeNet utilize lexical, syntactic, or contextual information to achieve better results, mainly for the task’s hypernymy detection part. TAXIやHypeNetといった第1世代のモデルは、語彙情報、構文情報、文脈情報を利用して、タスクのハイパーネミー検出部を中心に、より良い結果を達成する。
訳抜け防止モード: タクシーやハイプネットのような第1世代のモデルは語彙情報、構文情報、文脈情報を利用する タスクのhypernymy検出部分を中心に、よりよい結果を得る。
0.71
However, these two models do not utilize any of the structural information of taxonomy; hence they are unable to maintain the taxonomy’s structural design. しかし、これらの2つのモデルは、分類の構造情報を一切利用しないため、分類の構造設計を維持することができない。 0.80
Models of 7 モデル 7 0.67
英語(論文から抽出)日本語訳スコア
Table 3: Ablation experiment results on the SemEval16-Env dataset. 表3: SemEval16-Envデータセットのアブレーション実験結果。 0.73
All metrics are presented in percentages (%). すべての指標はパーセンテージ(%)で示されます。 0.73
For each ablation experiment setting, only the best result is reported. 各アブレーション実験設定について、最良の結果のみを報告する。 0.74
Abl. Type Original Dataflows アブラ。 原型 データフロー 0.50
Scoring Function Setting スコアリング機能 設定 0.66
HEF - WordNet Descriptions - Ego-tree + Egonet - Relative Level Emb. HEF - WordNet Descriptions - Ego-tree + Egonet - Relative Level Emb。 0.90
- Absolute Level Emb. -絶対レベルEmb。 0.61
Stopper Only Pathfinder + Current Only Current Only ストッパのみパスファインダー+電流のみ電流のみ 0.65
Acc MRR Wu&P 71.4 55.3 41.5 62.6 69.9 45.3 60.9 49.1 68.4 49.1 68.7 52.8 50.9 66.8 58.6 41.5 Acc MRR Wu&P 71.4 55.3 41.5 62.6 69.9 45.3 60.9 49.1 68.4 49.1 68.7 52.8 50.9 66.8 58.6 41.5 0.48
65.3 55.3 60.6 59.2 60.6 62.5 62.1 54.7 65.3 55.3 60.6 59.2 60.6 62.5 62.1 54.7 0.42
the second generation, like TaxoExpan and STEAM, inherit handcrafted lexical-syntactic features for detecting hypernymy relations. TaxoExpanやSTEAMのような第2世代は、ハイパーネミー関係を検出するために手作りの語彙・シンタクティック機能を継承する。 0.50
They also utilize the structural information by self-supervision from seed taxonomy and graph neural networks on small subgraphs of the taxonomy. 彼らはまた、種分類からの自己監督による構造情報と、分類学の小さなサブグラフ上のグラフニューラルネットワークを利用する。 0.57
However, they neglect the hierarchical structure of taxonomies, and they do not consider the coherence of the whole expanded taxonomy. しかし、彼らは分類の階層構造を無視し、拡大した分類学全体の一貫性を考慮していない。 0.60
Thus, their usage of structural information is only an improvement for performing hypernymy detection rather than taxonomy expansion. したがって、それらの構造情報の使用は、分類展開よりもハイパーニーミー検出を行うための改善にすぎない。 0.61
HEF further improves both the previous two generations’ strength by proposing a new approach that better fits the taxonomy expansion task. HEFは、従来の2世代間の長所をさらに改善し、分類拡大タスクに適合する新しいアプローチを提案している。 0.66
Moreover, it introduces a new goal for the task: to best preserve the taxonomy’s coherence after expansion. さらに、このタスクの新しい目標を導入します:拡張後の分類学の一貫性を最もよく維持すること。 0.68
We propose the description generation algorithm to generate accurate and domainspecific descriptions for complex and rare terms, to incorporate lexical-syntactic features for hypernymy detection. ハイパーニーミー検出のための語彙合成的特徴を組み込むために,複雑で希少な用語の正確なドメイン固有記述を生成する記述生成アルゴリズムを提案する。 0.71
Aided by DistilBERT’s power of sentence-pair representation, HEF can mine hypernymy features more automatically and accurately. DistilBERTの文対表現力によって、HEFはハイパーネーミング機能をより自動的に正確にマイニングすることができる。
訳抜け防止モード: DistilBERT の文力 - ペア表現。 HEFはより自動的にそして正確にhypernymy特徴を鉱山できます。
0.75
HEF also aims to fully exploit the information brought by the taxonomy’s hierarchical structure to boost performance. HEFはまた、分類体系の階層構造がもたらす情報を完全に活用してパフォーマンスを向上させることを目的とする。 0.64
HEF uses ego-trees to perform thorough comparison along root path and among siblings, injects tree-exclusive features to assist modeling the expert-curated taxonomy designs and explicitly evaluates both path and level for the anchor node as well as its parent and child. HEFは、ルートパスと兄弟間の徹底的な比較を行うためにエゴツリーを使用し、専門家による分類設計のモデリングを支援するためにツリー排他的な特徴を注入し、アンカーノードのパスとレベルと、親子の両方を明示的に評価する。
訳抜け防止モード: HEFはego-treeを使用する 根道と兄弟の間を徹底的に比較する ツリーを注入する - 補助する排他的特徴 専門家をモデリングし アンカーノードのパスとレベルと、親と子の両方を明示的に評価する。
0.72
Experiment results suggest that these designs are capable of modeling and maximizing the coherence of taxonomy in different aspects, which results in a vast performance increase in the taxonomy expansion task. 実験結果から,これらの設計は分類のコヒーレンスを様々な面でモデル化し,最大化することができることが示唆された。
訳抜け防止モード: 実験結果から,これらの設計は分類学のコヒーレンスをモデル化し,最大化することができることが示唆された。 分類学拡張タスクの 大幅なパフォーマンス向上につながります
0.72
5.3 Ablation Studies We discuss how exploiting different characteristics of taxonomy’s hierarchical structure brings performance increase by a series of ablation studies. 5.3 分類学の階層構造の異なる特徴を活用すれば,一連のアブレーション研究によってパフォーマンスが向上することを示す。 0.75
We substitute some designs of HEF in dataflow and score function to a vanilla setting and rerun the experiments. 我々は、データフローとスコア関数におけるHEFの設計をバニラ設定に置き換え、実験を再実行する。 0.71
The results of the ablation studies are shown in Table 3. アブレーション研究の結果は表3に示されています。 0.80
• - WordNet Descriptions: WordNet descriptions are substituted with the term’s surface name as the hypernymy detection module’s input. • - WordNet 説明: WordNet の説明は、ハイパーニーミー検出モジュールの入力として用語の表面名で置き換えられます。 0.79
• - Ego-tree + Egonet: the Egonet from TaxoExpan [34] is used instead of the ego-tree for modeling the tree structure. • - Ego-tree + Egonet: TaxoExpan [34] の Egonet は、ツリー構造をモデリングするために ego-tree の代わりに使用されます。 0.81
8 𝑐∗ 𝑎 = arg max 𝑐𝑎∈child(𝑎) 8 a = arg max ca∈child(a) 0.87
𝑆𝑝 (𝑐𝑎, 𝑞). 𝑆𝑝 (𝑐𝑎, 𝑞). 0.85
• Pathfinder + Current Only: Only the Pathfinder Score and the Current Score are used for Fitting Score calculation. •パスファインダー+電流のみ:パスファインダースコアと現在のスコアのみがスコア計算に適合する。 0.57
More specifically, the Fitting Score in Equation 6 and the loss in Equation 5 become: 具体的には、Equation 6のFiting ScoreとEquation 5の損失は次のようになります。 0.68
L𝑞 = − 𝜂 1 |X𝑞| Lq = −η 1 |Xq| 0.77
− (1 − 𝜂) 𝐹 (𝑎, 𝑞) = 𝑆𝑝 (𝑎, 𝑞) · 𝑆𝑐 (𝑎, 𝑞) , − (1 − 𝜂) 𝐹 (𝑎, 𝑞) = 𝑆𝑝 (𝑎, 𝑞) · 𝑆𝑐 (𝑎, 𝑞) , 0.85
BCELoss(cid:16) ˆ𝑆𝑝 (𝑎, 𝑞) , 𝑆𝑝 (𝑎, 𝑞)(cid:17) BCELoss(cid:16) ˆ𝑆𝑐 (𝑎, 𝑞) , 𝑆𝑐 (𝑎, 𝑞)(cid:17). BCELoss (cid:16) >Sp (a, q) , Sp (a, q)(cid:17) BCELoss (cid:16) >Sc (a, q) , Sc (a, q)(cid:17)。 0.91
∑︁ ∑︁ 𝑎∈X𝑞 1 |X𝑞| ∑︁ ∑︁ a∈Xq 1 |Xq| 0.72
𝑎∈X𝑞 coherence modeling module is removed. a∈Xq コヒーレンスモデリングモジュールは削除される。 0.67
the coherence modeling module is removed. コヒーレンスモデリングモジュールは削除される。 0.77
• - Relative Level Emb. • - 相対レベルEmb。 0.68
: The relative level embedding for the • - Absolute Level Emb. : • - 絶対レベルEmb に対する相対レベル埋め込み。 0.66
: The absolute level embedding for • Stopper Only: Only the Stopper Scores are used for Fitting Score calculation. The absolute level embeddedding for • Stopper only: Only the Stopper Scores are used for Fitting Score calculation。 0.74
More specifically, 𝜂 = 0, and the Fitting Score in Equation 6 becomes: より具体的には η = 0 であり、等式 6 の適合スコアは次のようになる。 0.63
𝐹 (𝑎, 𝑞) = 𝑆𝑓 (parent (𝑎) , 𝑞) · 𝑆𝑐 (𝑎, 𝑞) · 𝑆𝑏(cid:0)𝑐∗ 𝑎, 𝑞(cid:1) , 𝐹 (𝑎, 𝑞) = 𝑆𝑓 (parent (𝑎) , 𝑞) · 𝑆𝑐 (𝑎, 𝑞) · 𝑆𝑏(cid:0)𝑐∗ 𝑎, 𝑞(cid:1) , 0.96
• Current Only: Only the Current Score is used for Fitting Score calculation. •カレントのみ:カレントスコアのみを使用してスコア計算を行う。 0.65
This is the scoring strategy identical to prior arts [34, 47]. これは、以前の芸術と同一の得点戦略[34, 47]です。 0.78
More specifically, the Fitting Score in Equation 6 and the loss in Equation 5 become: 具体的には、Equation 6のFiting ScoreとEquation 5の損失は次のようになります。 0.68
∑︁ 𝐹 (𝑎, 𝑞) = 𝑆𝑐 (𝑎, 𝑞) , ∑︁ 𝐹 (𝑎, 𝑞) = 𝑆𝑐 (𝑎, 𝑞) , 0.82
BCELoss(cid:16) ˆ𝑆𝑐 (𝑎, 𝑞) , 𝑆𝑐 (𝑎, 𝑞)(cid:17). BCELoss (cid:16) >Sc (a, q) , Sc (a, q)(cid:17)。 0.88
L𝑞 = − 1 |X𝑞| Lq = − 1 |Xq| 0.88
𝑎∈X𝑞 We notice that by changing the design of dataflows, the performance of the HEF model suffers from various deteriorations. a∈Xq データフローの設計を変えることで、HEFモデルの性能は様々な劣化に悩まされることに気付きます。 0.70
Substituting WordNet descriptions with a term’s surface name surprisingly remains a relatively high performance, which might attribute to the representation power of the DistilBERT model. WordNetの説明を用語の表面名に置き換えることは驚くほど高性能であり、DistilBERTモデルの表現力に起因する可能性があります。 0.79
Using Egonets rather than ego-trees for coherence modeling also affects the performance. エゴツリーではなくエゴネットをコヒーレンスモデリングに使用することもパフォーマンスに影響する。 0.52
Although egonets can capture the local structure of taxonomy, ego-trees are more capable of modeling the complete construction of a hierarchy. エゴネットは分類学の局所構造を捉えることができるが、エゴツリーは階層の完全な構造をモデル化することができる。 0.60
For the introduction of level embeddings, the results show that removing one of the two level embeddings for the coherence modeling module hurts the learning of taxonomy’s design. レベル埋め込みの導入は、コヒーレンスモデリングモジュールの2つのレベル埋め込みのうちの1つを削除することが、分類学の設計の学習を損なうことを示している。 0.73
This is in accordance with the previous research about the importance of using the information of both absolute and relative positions in Transformers [33] and confirms our assumption that taxonomies have intrinsic designs about both absolute and relative levels. これはトランスフォーマ [33] における絶対位置と相対位置の両方の情報を使うことの重要性に関する以前の研究と一致しており、分類群が絶対値と相対値の両方について固有の設計を持つという前提を満たしている。
訳抜け防止モード: これは以前の研究で 変圧器における絶対位置と相対位置の両方の情報の利用 [33] 私たちの仮定は 分類群は絶対レベルと相対レベルの両方に固有のデザインを持つ。
0.72
Changes to the score function bring a smaller negative impact on the model compared to the dataflow changes, except for the setting of using merely Current Score. スコア関数の変更は、単にCurrent Scoreを使用する設定を除いて、データフローの変更に比べて、モデルにマイナスの影響を小さくする。 0.72
When using only the Current Score, the model loses the ability to disambiguate with its neighbors and the capacity of directly choosing the right path, downgrading the problem to be a series of independent scoring problems like the previous solutions. カレントスコアのみを使用する場合、モデルは隣人との曖昧さと正しい経路を直接選択する能力を失い、問題を以前のソリューションのような一連の独立したスコアリング問題に格下げする。 0.69
Adding Backward Score and Forward Score into Fitting Score calculation allows the model to distinguish the ground truth from its neighbors, bringing a boost to accuracy. Fitting Score計算にBackward ScoreとForward Scoreを追加すると、モデルは隣人から地上の真実を区別し、精度を高めることができます。 0.73
However, without the Pathfinder, the “Stopper Only” setting only explicitly しかし、Pathfinderがなければ、“Stopper Only”設定は明示的にしか定義されない。 0.61
英語(論文から抽出)日本語訳スコア
err 翻訳エラー 0.00
英語(論文から抽出)日本語訳スコア
Figure 6: Illustration of one self-attention head in the first layer of the coherence modeling module, showing how the coherence modeling module finds the most fitted node in an ego-tree. 図6:コヒーレンスモデリングモジュールの最初の層にある1つの自己保持ヘッドのイラストレーション。コヒーレンスモデリングモジュールがエゴツリーで最も適合したノードを見つける方法を示しています。 0.75
In this example, the anchor is “herb”, the query is “oolong”, and the query’s ground truth parent is “tea”. この例では、アンカーは"herb"、クエリは"oolong"、クエリの基本的な真理の親は"tea"である。
訳抜け防止モード: この例では、アンカーは「ハーブ」です。 クエリは “oolong ” です。 そして、クエリーの基本的な真理の親は“ティー”だ。
0.64
a node with all its ancestors and its children to find the most suited anchor, which makes the model more robust. すべての祖先とその子を持つノードが最も適したアンカーを見つけることで、モデルがより堅牢になる。 0.70
Besides, the coherence modeling module is also able to assign a lower attention weight to the best-suited parent’s parent node when it is on the right path, suggesting that the coherence modeling module can achieve both path-wise and level-wise comparison. さらに、コヒーレンスモデリングモジュールは、適切なパスにあるときに、最適な親の親ノードに低い注意重みを割り当てることができ、コヒーレンスモデリングモジュールは、パスワイズとレベルワイズの両方の比較を達成できることを示唆しています。 0.73
6 CONCLUSION We proposed HEF, a self-supervised taxonomy expansion model that fully exploits the hierarchical structure of a taxonomy for better hierarchical structure modeling and taxonomy coherence maintenance. 6結論 我々は, 階層構造モデリングと分類コヒーレンス維持のために, 分類法の階層構造を十分に活用する自己教師付き分類拡張モデルhefを提案した。 0.72
Compared to previous methods that evaluate the anchor by merely a new edge in a normal graph neglecting the tree structure of taxonomy, we used extensive experiments to prove that, evaluating a tree structure for coherence maintenance, and mining multiple tree-exclusive features in the taxonomy, including hypernymy relations from parent-child relations, term similarity from sibling relations, absolute and relative levels, path+level based multi-dimensional evaluation, and disambiguation based on parent-current-child chains all brought performance boost. Compared to previous methods that evaluate the anchor by merely a new edge in a normal graph neglecting the tree structure of taxonomy, we used extensive experiments to prove that, evaluating a tree structure for coherence maintenance, and mining multiple tree-exclusive features in the taxonomy, including hypernymy relations from parent-child relations, term similarity from sibling relations, absolute and relative levels, path+level based multi-dimensional evaluation, and disambiguation based on parent-current-child chains all brought performance boost. 0.97
This indicates the importance of using the information of tree structure for the taxonomy expansion task. このことは,木構造情報を用いた分類拡張作業の重要性を示している。 0.78
We also proposed a framework for injecting these features, introduced our implementation of the framework, and surpassed the previous state-of-the-art. また、これらの機能を注入するためのフレームワークを提案し、フレームワークの実装を導入し、以前の最先端を越えました。 0.51
We believe that these novel designs and their motivations will not only benefit the taxonomy expansion task, but also be influential for all tasks involving hierarchical or tree structure modeling and evaluation. これらの新しいデザインとそのモチベーションは、分類学拡張タスクに利益をもたらすだけでなく、階層的または木構造モデリングと評価を含むすべてのタスクに影響を及ぼすと考えている。 0.71
Future works include how to model and utilize these or new treeexclusive features to boost other taxonomy-related tasks, and better implementation of each module in HEF. 今後の作業には、これらまたは新しいツリー排他的機能をモデル化して、他の分類関連タスクを強化する方法や、HEFにおける各モジュールの実装の改善などが含まれる。 0.56
ACKNOWLEDGMENTS Thanks to everyone who helped me with this paper in the Tencent Jarvis Lab, my family, and my loved one. Tencent Jarvis Labでこの論文を手伝ってくれたすべての人、家族、そして愛する人に感謝します。 0.74
REFERENCES [1] Eugene Agichtein and Luis Gravano. 参照 [1] Eugene AgichteinとLuis Gravano。 0.69
2000. Snowball: Extracting Relations From 2000. 雪球:関係の抽出 0.82
Large Plain-Text Collections. 大きなプレーンテキストコレクション。 0.77
In Proceedings of JCDL. JCDLのプロシーディングで。 0.60
85–94. [2] Georgeta Bordea, Els Lefever, and Paul Buitelaar. 85–94. [2]Georgeta Bordea、Els Lefever、Paul Buitelaar。 0.68
2016. SemEval-2016 Task 13: Taxonomy Extraction Evaluation (TExEval-2). 2016. SemEval-2016 Task 13: Taxonomy extract Evaluation (TExEval-2) 0.85
In Proceedings of the SemEval-2016. SemEval-2016のProceedingsで。 0.69
1081–1091. 1081–1091. 0.71
[3] Anne Cocos, Marianna Apidianaki, and Chris Callison-Burch. Anne Cocos氏、Marianna Apidianaki氏、Chris Callison-Burch氏。 0.73
2018. Comparing Constraints for Taxonomic Organization. 2018. 比較 分類組織のための制約。 0.75
In Proceedings of NAACL. NAACLのProceedingsで。 0.58
323–333. 10 323–333. 10 0.78
[6] Trevor Fountain and Mirella Lapata. 6]Trevor FountainとMirrella Lapata。 0.55
2012. Taxonomy Induction Using Hierarchi- 2012. Hierarchiを用いた分類学誘導- 0.68
[4] Sarthak Dash, Md Faisal Mahbub Chowdhury, Alfio Gliozzo, Nandana Mihindukulasooriya, and Nicolas Rodolfo Fauceglia. 4] Sarthak Dash、Md Faisal Mahbub Chowdhury、Alfio Gliozzo、Nandana Mihindukulasooriya、Nicolas Rodolfo Fauceglia。
訳抜け防止モード: [4 ]Sarthak Dash, Md Faisal Mahbub Chowdhury, Alfio Gliozzo, Nandana MihindukulasooriyaとNicolas Rodolfo Fauceglia。
0.74
2020. Hypernym Detection Using Strict Partial Order Networks. 2020. Strict partial Order Networks を用いたハイパーネム検出 0.80
In Proceedings of AAAI. AAAIのProceedingsで。 0.57
7626–7633. 7626–7633. 0.71
[5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 5]Jacob Devlin氏、Ming-Wei Chang氏、Kenton Lee氏、Kristina Toutanova氏。 0.74
2019. BERT: Pre-Training of Deep Bidirectional Transformers for Language Understanding. 2019. BERT:言語理解のための深度双方向変換器の事前トレーニング。 0.75
In Proceedings of NAACL. NAACLのProceedingsで。 0.58
4171–4186. 4171–4186. 0.71
cal Random Graphs. calランダムグラフ。 0.69
In Proceedings of NAACL. NAACLのProceedingsで。 0.58
466–476. [7] Amit Gupta, Rémi Lebret, Hamza Harkous, and Karl Aberer. 466–476. Amit Gupta氏、Rémi Lebret氏、Hamza Harkous氏、Karl Aberer氏。 0.67
2017. Taxonomy Induction Using Hypernym Subsequences. 2017. ハイパーnymサブシーケンスを用いた分類誘導 0.75
In Proceedings of CIKM. CIKMのProceedingsで。 0.59
1329–1338. 1329–1338. 0.71
[8] Marti A. Hearst. 8] マーティ a. ハースト 0.46
1992. Automatic Acquisition of Hyponyms From Large Text Corpora. 1992. 大規模テキストコーパスからの偽名の自動取得 0.67
In Proceedings of ACL. ACLのProceedingsで。 0.59
539–545. [9] Wen Hua, Zhongyuan Wang, Haixun Wang, Kai Zheng, and Xiaofang Zhou. 539–545. 9] Wen Hua、Zhongyuan Wang、Haixun Wang、Kai Zheng、Xiaofang Zhou。 0.67
2017. Understand Short Texts by Harvesting and Analyzing Semantic Knowledge. 2017. セマンティックナレッジの収穫と分析によるショートテキストの理解。 0.77
IEEE Transactions on Knowledge and Data Engineering (2017), 499–512. IEEE Transactions on Knowledge and Data Engineering (2017), 499–512。 0.88
[10] Jin Huang, Zhaochun Ren, Wayne Xin Zhao, Gaole He, Ji-Rong Wen, and Daxiang Dong. 10] Jin Huang、Zhaochunren、Wayne Xin Zhao、Gaole He、Ji-Rong Wen、Daxiang Dong。
訳抜け防止モード: [ 10 ] Jin Huang, Zhaochun Ren, Wayne Xin Zhao, Gaole He、Ji - Rong Wen、Daxiang Dong。
0.75
2019. Taxonomy-Aware Multi-Hop Reasoning Networks for Sequential Recommendation. 2019. 逐次推薦のための分類学アウェアマルチホップ推論ネットワーク 0.71
In Proceedings of WSDM. WSDMのProceedingsで。 0.55
573–581. [11] Meng Jiang, Jingbo Shang, Taylor Cassidy, Xiang Ren, Lance M. Kaplan, Timothy P. Hanratty, and Jiawei Han. 573–581. 11] Meng Jiang、Jingbo Shang、Taylor Cassidy、Xiang Ren、Lance M. Kaplan、Timothy P. Hanratty、Jiawei Han。
訳抜け防止モード: 573–581. [11]Meng Jiang,Jingbo Shang,Taylor Cassidy, Xiang Ren, Lance M. Kaplan, Timothy P. Hanratty そして、慈和井藩。
0.79
2017. MetaPAD: Meta Pattern Discovery From Massive Text Corpora. 2017. MetaPAD:Meta Pattern Discovery from Massive Text Corpora (英語) 0.86
In Proceedings of KDD. KDDのProceedingsで。 0.55
877–886. [12] David Jurgens and Mohammad Taher Pilehvar. 877–886. 12] David JurgensとMohammad Taher Pilehvar。 0.69
2015. Reserating the Awesometastic: An Automatic Extension of the WordNet Taxonomy for Novel Terms. 2015. Awesometastic: An Automatic Extension of the WordNet Taxonomy for Novel Terms (英語) 0.81
In Proceedings of NAACL. NAACLのProceedingsで。 0.58
1459–1465. 1459–1465. 0.71
[13] David Jurgens and Mohammad Taher Pilehvar. 13] David JurgensとMohammad Taher Pilehvar。 0.65
2016. SemEval-2016 Task 14: Semantic Taxonomy Enrichment. 2016. SemEval-2016 Task 14:Semantic Taxonomy Enrichment。 0.86
In Proceedings of the SemEval-2016. SemEval-2016のProceedingsで。 0.69
1092–1102. 1092–1102. 0.71
[14] Giannis Karamanolakis, Jun Ma, and Xin Luna Dong. 14] Giannis Karamanolakis、Jun Ma、Xin Luna Dong。 0.64
2020. TXtract: TaxonomyAware Knowledge Extraction for Thousands of Product Categories. 2020. txtract: 何千もの製品カテゴリに対する分類学知識の抽出。 0.79
(2020). [15] Seohyun Kim, Jinman Zhao, Yuchi Tian, and Satish Chandra. (2020). [15]Seohyun Kim, Jinman Zhao, Yuchi Tian, Satish Chandra。 0.79
2020. Code Predic- 2020. コードpredic 0.76
tion by Feeding Trees to Transformers. 木をトランスフォーマーにフィードする。 0.57
(2020). [16] Zornitsa Kozareva and Eduard Hovy. (2020). 16] Zornitsa KozarevaとEduard Hovy。 0.75
2010. A Semi-Supervised Method to Learn and Construct Taxonomies Using the Web. 2010. Webを用いた分類学の学習と構築のための半指導的手法 0.74
In Proceedings of EMNLP. In Proceedings of EMNLP 0.60
1110–1118. 1110–1118. 0.71
[17] Matthew Le, Stephen Roller, Laetitia Papaxanthos, Douwe Kiela, and Maximilian Nickel. 17] Matthew Le、Stephen Roller、Laetitia Papaxanthos、Douwe Kiela、Maximilian Nickel。 0.65
2019. Inferring Concept Hierarchies From Text Corpora via Hyperbolic Embeddings. 2019. Hyperbolic Embeddings による Text Corpora の概念階層の推定 0.79
In Proceedings of ACL. ACLのProceedingsで。 0.59
3231–3241. 3231–3241. 0.71
[18] Dekang Lin. 18] Dekang Lin。 0.66
1998. An Information-Theoreti c Definition of Similarity. 1998. 類似性の情報理論的定義 0.75
In Proceedings of ICML. ICMLの進歩において。 0.70
296–304. [19] Carolyn E. Lipscomb. 296–304. 19] キャロリン・e・リプスコーム 0.57
2000. Medical Subject Headings (MeSH). 2000. MeSH (Medical Subject Headings) の略。 0.77
Bulletin of the Medical Library Association (2000), 265–266. 医学図書館協会(2000年)265-266号。 0.71
[20] Bang Liu, Weidong Guo, Di Niu, Chaoyue Wang, Shunnan Xu, Jinghong Lin, Kunfeng Lai, and Yu Xu. [20]Bang Liu、Weidong Guo、Di Niu、Chaoyue Wang、Shunnan Xu、Jinghong Lin、Kunfeng Lai、Yu Xu。
訳抜け防止モード: [20 ]Bang Liu,Weidong Guo,Di Niu, 青江王、春南周、金春林、雲舟来(くんふんらい) とYu Xu。
0.81
2019. A User-Centered Concept Mining System for Query and Document Understanding at Tencent. 2019. Tencentにおけるクエリとドキュメント理解のためのユーザ中心の概念マイニングシステム 0.83
In Proceedings of KDD. KDDのProceedingsで。 0.55
1831–1841. 1831–1841. 0.71
(2019). [21] Ilya Loshchilov and Frank Hutter. (2019). 21] Ilya LoshchilovとFrank Hutter。 0.78
2019. Decoupled Weight Decay Regularization. 2019. 分離重量減少正規化。 0.77
[22] Xusheng Luo, Luxin Liu, Yonghua Yang, Le Bo, Yuanpeng Cao, Jinghang Wu, Qiang Li, Keping Yang, and Kenny Q. Zhu. [22]Xusheng Luo、Luxin Liu、Yonghua Yang、Le Bo、Yuanpeng Cao、Jinghang Wu、Qiang Li、Kping Yang、Kenny Q. Zhu。 0.73
2020. AliCoCo: Alibaba E-Commerce Cognitive Concept Net. 2020. AliCoCo:Alibaba E-Commerce Cognitive Concept Net。 0.89
In Proceedings of SIGMOD. SIGMODのProceedingsで。 0.48
313–327. [23] Emaad Manzoor, Rui Li, Dhananjay Shrouty, and Jure Leskovec. 313–327. 23] Emaad Manzoor、Rui Li、Dhananjay Shrouty、Jure Leskovec。 0.67
2020. Expanding Taxonomies With Implicit Edge Semantics. 2020. 暗黙のエッジセマンティクスによる分類法の拡張。 0.69
In Proceedings of TheWebConf. WebConfの進行において。 0.68
2044– 2054. 2044– 2054. 0.94
[24] Yuning Mao, Xiang Ren, Jiaming Shen, Xiaotao Gu, and Jiawei Han. [24] Yuning Mao、Xiang Ren、Jiaming Shen、Xiaotao Gu、Jiawei Han。 0.68
2018. End-ToEnd Reinforcement Learning for Automatic Taxonomy Induction. 2018. 自動分類誘導のためのエンドツーエンド強化学習 0.73
In Proceedings of ACL. ACLのProceedingsで。 0.59
2462–2472. 2462–2472. 0.71
[25] George A. Miller. ジョージ・A・ミラー(George A. Miller) 0.57
1995. WordNet: A Lexical Database for English. 1995. WordNet: 英語のための語彙データベース。 0.83
Commun. ACM (1995), 39–41. Commun ACM (1995), 39-41。 0.66
[26] Alexander Panchenko, Stefano Faralli, Eugen Ruppert, Steffen Remus, Hubert Naets, Cédrick Fairon, Simone Paolo Ponzetto, and Chris Biemann. Alexander Panchenko氏、Stefano Faralli氏、Eugen Ruppert氏、Steffen Remus氏、Hutbert Naets氏、Cédrick Fairon氏、Simone Paolo Ponzetto氏、Chris Biemann氏。
訳抜け防止モード: [26 ]Alexander Panchenko, Stefano Faralli, Eugen Ruppert, Steffen Remus, Hubert Naets, Cédrick Fairon, Simone Paolo Ponzetto クリス・ビーマン(Chris Biemann)。
0.82
2016. TAXI at SemEval-2016 Task 13: A Taxonomy Induction Method Based on Lexico-Syntactic Patterns, Substrings and Focused Crawling. 2016. TAXI at SemEval-2016 Task 13: A Taxonomy induction Method based on Lexico-Syntactic Patterns, Substrings and Focused Crawling. 0.92
In Proceedings of SemEval-2016. In Proceedings of SemEval-2016 0.84
1320– 1327. 1320– 1327. 0.94
[27] Hao Peng, Jianxin Li, Senzhang Wang, Lihong Wang, Qiran Gong, Renyu Yang, Bo Li, Philip Yu, and Lifang He. [27]Hu Peng、Jianxin Li、Senzhang Wang、Lihong Wang、Qiran Gong、Renyu Yang、Bo Li、Philip Yu、Lifang He。 0.67
2019. Hierarchical Taxonomy-Aware and Attentional Graph Capsule RCNNs for Large-Scale Multi-Label Text Classification. 2019. 大規模マルチラベルテキスト分類のための階層分類・注意グラフカプセルrcnn 0.79
IEEE Transactions on Knowledge and Data Engineering (2019). IEEE Transactions on Knowledge and Data Engineering (2019)を参照。 0.89
[28] Stephen Roller, Douwe Kiela, and Maximilian Nickel. [28] Stephen Roller、Douwe Kiela、Maximilian Nickel。 0.65
2018. Hearst Patterns Revisited: Automatic Hypernym Detection From Large Text Corpora. 2018. Hearst Patterns Revisited: Automatic Hypernym Detection from Large Text Corpora. (英語) 0.86
In Proceedings of ACL. ACLのProceedingsで。 0.59
358–363. [29] Erik Tjong Kim Sang. 358–363. [29] Erik Tjong Kim Sang。 0.76
2007. Extracting Hypernym Pairs From the Web. 2007. web から hypernym ペアを抽出する。 0.79
In Proceedings of ACL. ACLのProceedingsで。 0.59
Association for Computational Linguistics, 165–168. Association for Computational Linguistics, 165–168。 0.89
[30] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. 30]Victor Sanh、Lysandre Debut、Julien Chaumond、Thomas Wolf。 0.64
2020. DistilBERT, a Distilled Version of BERT: Smaller, Faster, Cheaper and Lighter. 2020. DistilBERT、BERTの蒸留された版:より小さく、より速く、より安いおよびより軽い。 0.74
(2020). [31] Chao Shang, Sarthak Dash, Md. (2020). 9.[31] Chao Shang, Sarthak Dash, Md. 0.83
Faisal Mahbub Chowdhury, Nandana Mihindukulasooriya, and Alfio Gliozzo. Faisal Mahbub Chowdhury, Nandana Mihindukulasooriya, Alfio Gliozzo 0.59
2020. Taxonomy Construction of Unseen Domains via Graph-Based Cross-Domain Knowledge Transfer. 2020. グラフベースクロスドメイン知識伝達による未知ドメインの分類学構築 0.74
In Proceedings of ACL. ACLのProceedingsで。 0.59
2198–2208. 2198–2208. 0.71
[32] Jingbo Shang, Xinyang Zhang, Liyuan Liu, Sha Li, and Jiawei Han. [32] Jingbo Shang、Xinyang Zhang、Liyuan Liu、Sha Li、Jiawei Han。 0.68
2020. NetTaxo: Automated Topic Taxonomy Construction From Text-Rich Network. 2020. NetTaxo:Text-Richネットワークから自動トピック分類構築。 0.85
In Proceedings of TheWebConf. WebConfの進行において。 0.68
1908–1919. 1908–1919. 0.71
<CLS><CLS>foodfoodstuffingredi entflavorerherbborag ecomfreyteaoolong< ;CLS> (For Pathfinder)<CLS> (For Stopper)0.10.20.30.4 0.5 <CLS><CLS>foodfoodstuffingredi entflavorerherbborag ecomfreyteaoolong< ;CLS> (For Pathfinder)<CLS> (For Stopper)0.10.20.30.4 0.5 0.42
英語(論文から抽出)日本語訳スコア
[33] Peter Shaw, Jakob Uszkoreit, and Ashish Vaswani. [33]Peter Shaw、Jakob Uszkoreit、Ashish Vaswani。 0.62
2018. Self-Attention With 2018. self‐Attention 0.80
Relative Position Representations. In Proceedings of NAACL. 相対位置表現。 NAACLのProceedingsで。 0.59
464–468. [34] Jiaming Shen, Zhihong Shen, Chenyan Xiong, Chi Wang, Kuansan Wang, and Jiawei Han. 464–468. 34] Jiaming Shen、Zhihong Shen、Chenyan Xiong、Chi Wang、Kuansan Wang、Jiawei Han。 0.68
2020. TaxoExpan: Self-Supervised Taxonomy Expansion With PositionEnhanced Graph Neural Network. 2020. TaxoExpan: グラフニューラルネットワークによる自己監督型分類拡張。 0.81
In Proceedings of TheWebConf. WebConfの進行において。 0.68
486–497. [35] Jiaming Shen, Zeqiu Wu, Dongming Lei, Chao Zhang, Xiang Ren, Michelle T. Vanni, Brian M. Sadler, and Jiawei Han. 486–497. [35]Jeaming Shen、Zeqiu Wu、Dongming Lei、Chao Zhang、Xiang Ren、Michelle T. Vanni、Brian M. Sadler、Jei Han。 0.71
2018. HiExpan: Task-Guided Taxonomy Construction by Hierarchical Tree Expansion. 2018. HiExpan:Hierarchical Tree Expansionによるタスクガイド型分類構築。 0.83
In Proceedings of KDD. KDDのProceedingsで。 0.55
2180–2189. 2180–2189. 0.71
[36] Vighnesh Shiv and Chris Quirk. [36] Vighnesh ShivとChris Quirk。 0.81
2019. Novel Positional Encodings to Enable Tree-Based Transformers. 2019. 木に基づくトランスを可能にする新しい位置符号化法 0.68
In Advances in Neural Information Processing Systems 32. 神経情報処理システム32の進歩 0.54
12081–12091. 12081–12091. 0.71
[37] Vered Shwartz, Yoav Goldberg, and Ido Dagan. He37] Vered Shwartz、Yoav Goldberg、Ido Dagan。 0.67
2016. Improving Hypernymy Detection With an Integrated Path-Based and Distributional Method. 2016. 統合パスベースおよび分布法によるハイパーニー検出の改善 0.81
In Proceedings of ACL. ACLのProceedingsで。 0.59
Association for Computational Linguistics, 2389–2398. Association for Computational Linguistics, 2389–2398 0.90
[38] Kai Sheng Tai, Richard Socher, and Christopher D. Manning. [38] Kai Sheng Tai、Richard Socher、Christopher D. Manning。 0.76
2015. Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks. 2015. ツリー構造付き長期短期記憶ネットワークによる意味表現の改善 0.80
In Proceedings of ACL/IJCNLP. ACL/IJCNLPの進歩 0.64
1556–1566. 1556–1566. 0.71
[39] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. 39]Ashish Vaswani氏、Noam Shazeer氏、Niki Parmar氏、Jakob Uszkoreit氏、Llion Jones氏、Aidan N Gomez氏、Sukasz Kaiser氏、Illia Polosukhin氏。 0.71
2017. Attention Is All You Need. 2017. 注意はあなたが必要とするすべてです。 0.73
In Advances in Neural Information Processing Systems 30. 神経情報処理システム30の進歩です 0.62
5998–6008. 5998–6008. 0.71
[40] Nikhita Vedula, Patrick K. Nicholson, Deepak Ajwani, Sourav Dutta, Alessandra Sala, and Srinivasan Parthasarathy. 40] Nikhita Vedula、Patrick K. Nicholson、Deepak Ajwani、Sourav Dutta、Alessandra Sala、Srinivasan Parthasarathy。
訳抜け防止モード: [40 ] Nikhita Vedula, Patrick K. Nicholson, Deepak Ajwani, Sourav Dutta、Alessandra Sala、Srinivasan Parthasarathy。
0.78
2018. Enriching Taxonomies With Functional Domain Knowledge. 2018. 機能ドメイン知識による分類学の強化。 0.72
In Proceedings of SIGIR. SIGIRのProceedingsで。 0.53
745–754. [41] Paola Velardi, Stefano Faralli, and Roberto Navigli. 745–754. 41] Paola Velardi、Stefano Faralli、Roberto Navigli。 0.68
2013. OntoLearn Reloaded: A Graph-Based Algorithm for Taxonomy Induction. 2013. OntoLearn Reloaded: 分類誘導のためのグラフベースのアルゴリズム。 0.80
Computational Linguistics (2013), 665–707. Computational Linguistics (2013), 665–707。 0.91
[42] Chengyu Wang, Yan Fan, Xiaofeng He, and Aoying Zhou. [42]Chengyu Wang、Yan Fan、Xiaofeng He、およびAoying Zhou。 0.74
2019. A Family of Fuzzy Orthogonal Projection Models for Monolingual and Cross-Lingual Hypernymy Prediction. 2019. 単言語・言語間ハイパーネミー予測のためのファジィ直交射影モデルの一家系 0.76
In Proceedings of WWW. 詳細はWWWを参照。 0.57
1965–1976. 1965–1976. 0.71
[43] Jingjing Wang, Changsung Kang, Yi Chang, and Jiawei Han. 43] Jingjing Wang、Changsung Kang、Yi Chang、Jiawei Han。 0.65
2014. A Hierarchical Dirichlet Model for Taxonomy Expansion for Search Engines. 2014. 検索エンジンの分類学的拡張のための階層的ディリクレモデル 0.80
In Proceedings of WWW. 詳細はWWWを参照。 0.57
961–970. [44] Zhibiao Wu and Martha Palmer. 961–970. 44] Zhibiao WuとMartha Palmer。 0.68
1994. Verbs Semantics and Lexical Selection. 1994. Verbs Semantics and Lexical Selection(英語) 0.82
In Proceedings of ACL. ACLのProceedingsで。 0.59
133–138. In Proceedings of *SEM. 133–138. Proceedings of *SEM。 0.67
203–213. for Name Entity Queries. 203–213. Name Entity Queries。 0.66
In Proceedings of WWW. 詳細はWWWを参照。 0.57
1001–1010. 1001–1010. 0.71
[47] Yue Yu, Yinghao Li, Jiaming Shen, Hao Feng, Jimeng Sun, and Chao Zhang. [47]Yue Yu, Yinghao Li, Jiaming Shen, Hao Feng, Jimeng Sun, Chao Zhang。 0.75
2020. STEAM: Self-Supervised Taxonomy Expansion With Mini-Paths. 2020. STEAM:ミニパスによる自己監督型分類拡張。 0.72
In Proceedings of KDD. KDDのProceedingsで。 0.55
1026–1035. 1026–1035. 0.71
[48] Chao Zhang, Fangbo Tao, Xiusi Chen, Jiaming Shen, Meng Jiang, Brian Sadler, Michelle Vanni, and Jiawei Han. [48]Chao Zhang, Fangbo Tao, Xiusi Chen, Jiaming Shen, Meng Jiang, Brian Sadler, Michelle Vanni, Jiawei Han。 0.77
2018. TaxoGen: Unsupervised Topic Taxonomy Construction by Adaptive Term Embedding and Clustering. 2018. TaxoGen:Adaptive Term Embedding and Clusteringによる教師なしのトピック分類の構築。 0.80
In Proceedings of KDD. KDDのProceedingsで。 0.55
2701–2709. 2701–2709. 0.71
[45] Wenpeng Yin and Dan Roth. [45] Wenpeng YinおよびDan Roth。 0.80
2018. Term Definitions Help Hypernymy Detection. 2018. 用語定義はHypernymyの検出を助けます。 0.73
[46] Xiaoxin Yin and Sarthak Shah. [46]Xiaoxin YinとSarthak Shah。 0.69
2010. Building Taxonomy of Web Search Intents 2010. Web検索インテントの分類学の構築 0.77
A CASE STUDY To understand how different Fitting Score components contribute to HEF’s performance, we conduct a case study on the SemEval16-Food dataset and show the detailed results in Table 4. 異なるフィッティングスコアコンポーネントがHEFのパフォーマンスにどのように貢献しているかを理解するため、SemEval16-Foodデータセットのケーススタディを行い、表4で詳細な結果を示します。 0.75
The first two rows of Table 4 shows two cases where HEF successfully predicts the query’s parent. Table 4の最初の2行は、EFがクエリの親をうまく予測する2つのケースを示している。 0.68
We can see that the Pathfinder Score and the three Stopper Scores all contribute to the correct selection, which testifies the effectiveness of the Fitting Score design. パスファインダースコアと3つのストッパースコアがすべて正しい選択に貢献し、フィッティングスコアの設計の有効性を証明していることがわかります。
訳抜け防止モード: Pathfinder Scoreと3つのStopper Scoresがすべて正しい選択に寄与していることが分かります。 これはFitting Score設計の有効性を検証する。
0.75
The last two rows of Table 4 provide situations when HEF fails to select the correct parent. テーブル4の最後の2行は、HEFが正しい親を選択するのに失敗する状況を提供する。 0.73
In the third row, “bourguignon” is described as “reduced red wine”, thus the model attaches it to the node “wine”. 3行目では、"Bourguignon"は"reduced red wine"と表現され、モデルがそれを"wine"ノードにアタッチする。 0.77
However, “bourguignon” is also a sauce for cooking beef. しかし、「ブルグイニョン」は牛肉の調理のソースでもある。 0.66
Such ambiguation consequently affects the meaning of a term by assigning an incorrect description, which hurts the model’s performance. このような曖昧さは、モデルのパフォーマンスを損なう誤った記述を割り当てることによって、項の意味に影響を与える。 0.72
In the last row, although “hot fudge sauce”’s description contains "chocolate sauce", the node “chocolate sauce” still gets a low Current Score. 最後の行では、"ホットファッジソース"の記述には"チョコレートソース"が含まれているが、"チョコレートソース"ノードは依然としてカレントスコアが低い。 0.65
In HEF, the design of Stopper Scores enables the model to self-correct the occasionally wrong Current Scores by assigning larger Forward Score from a node’s parent and larger Backward Score from one of the node’s children. HEFでは、Stopper Scoresの設計により、ノードの親からより大きなForward Scoreを、ノードの子供から大きいBackward Scoreを割り当てることで、時に間違ったCurrent Scoresを自己修正することができる。 0.75
However, since “chocolate sauce” is a leaf node, its child’s Backward Score is assigned to be the proportion of leaf nodes in the seed taxonomy, which is しかし、「チョコレートソース」は葉ノードであるため、その子供の後方スコアは種子分類における葉ノードの割合、すなわち種子分類において割り当てられる。 0.71
11 0.07 in the SemEval16-Food dataset. 11 SemEval16-Foodデータセットの0.07。 0.71
This indicates that future work includes designing a more reasonable Backward Score function for leaf nodes to improve the model’s robustness. これは、将来の作業は、モデルの堅牢性を向上させるためにリーフノードのためのより合理的なバックワードスコア関数を設計することを含むことを示している。 0.52
B DESCRIPTION GENERATION ALGORITHM Algorithm 2 shows the description generation algorithm descr(·) used in HEF’s hypernymy detection module. B DeSCRIPTION GENERATION ALGORITHM Algorithm 2はHEFの超ニーミー検出モジュールで使用される記述生成アルゴリズムdescr(·)を示しています。 0.83
descr(·) utilizes WordNet descriptions to generate domain-related term descriptions by dynamic programming. descr(·)は、動的プログラミングによるドメイン関連用語記述を生成するためにWordNet記述を利用する。 0.64
In this algorithm, WordNetNounDescr(·) means the set of a concept’s noun descriptions from WordNet [25], and CosSimilarity(𝑡, 𝑛root) means calculating the average token cosine similarity of word vectors between a candidate description 𝑡 and the surface name of a taxonomy’s root term 𝑛root. このアルゴリズムでは、WordNetNounDescr(·)は、WordNet [25]から概念の名詞記述のセットを意味し、CosSimilarity(t, nroot)は、候補者記述tと分類学のルート用語nrootの表面名との間の単語ベクトルの平均トークンコサイン類似度を計算することを意味します。 0.88
𝑆[𝑖] = 0 𝐶[𝑖] = 0 𝑆[𝑖] = 0 𝐶[𝑖] = 0 0.85
⊲ Input: term 𝑛 ⊲ Initialize score array ⊲ Initialize splitting positions 入力: 用語 n。 〜初期化スコアアレイ 〜初期化位置 0.66
if WordNetNounDescr(𝑁 [ 𝑗 : 𝑖 + 1])> 0 then WordNetNounDescr(N [j : i + 1])> 0 の場合 0.68
⊲ Prefer longer concepts は、より長い概念を好む 0.53
else 𝑠𝑖 𝑗 = (𝑖 − 𝑗 + 1)2 + 1 𝑠𝑖 𝑗 = 1 その他 𝑠𝑖 𝑗 = (𝑖 − 𝑗 + 1)2 + 1 𝑠𝑖 𝑗 = 1 0.72
end for for 𝑖 ← 0, · · · , length(𝑁 )−1 do i > 0, · · · , length(N )−1 do の終端 0.78
for 𝑗 ← 0, · · · , 𝑖 do j が 0, · · · に対して、私はそうする。 0.57
𝑁 ←split(𝑛) for 𝑖 ← 0, · · · , length(𝑁 ) do i > 0, · · · , length(N ) do に対する N > Split(n) 0.75
Algorithm 2 Description Generation Algorithm for the Hypernymy Detection Module 1: procedure Descr(𝑛) 2: 3: 4: 5: 6: 7: 8: 9: 10: 11: 12: 13: 14: 15: 16: 17: 18: 19: 20: 21: 22: 23: 24: 25: 26: 27: 28: 29: 30: end while 31: 32: end procedure アルゴリズム 2 記述 Hypernymy 検出モジュールの生成アルゴリズム 1: 手順 Descr(n) 2: 3: 4: 5: 6: 7: 9: 10: 11: 12: 13: 14: 15: 16: 18: 20: 21: 22: 23: 25: 27: 28: 29: 30: End while 31: 32: end procedure 0.70
𝑑 ← arg max𝑡 ∈𝐷𝑊 𝑁 CosSimilarity(𝑡, 𝑛root) 𝑑 ← j𝑜𝑖𝑛(𝑁 [𝐶[𝑝] : 𝑝 + 1]) d ^ arg maxt ∈DW N CosSimilarity(t, nroot) d ^ join(N [C[p] : p + 1]) 0.69
𝐷𝑊 𝑁 =WordNetNounDescr(𝑁 [𝐶[𝑝] : 𝑝 + 1]) if len(𝐷𝑊 𝑁 )> 0 then DW N =WordNetNounDescr(N[C[p] : p + 1]) if len(DW N )> 0 0.80
⊲ Put new description in the front ⊲ Go to next split 〜 正面に新しい記述を入れる ~ 次の分割へ 0.66
end if if 𝑆[ 𝑗] + 𝑠𝑖 𝑗 > 𝑆[𝑖 + 1] then 終了 S[j] + si j > S[i + 1] であれば終了します。 0.82
𝑆[𝑖 + 1] ← 𝑆[ 𝑗] + 𝑠𝑖 𝑗 𝐶[𝑖] = 𝑗 𝑆[𝑖 + 1] ← 𝑆[ 𝑗] + 𝑠𝑖 𝑗 𝐶[𝑖] = 𝑗 0.85
end for 𝐷 ←“” 𝑝 ← length(𝑁 ) while 𝑝 ≠ −1 do D は "" の長さ (N ) であり、p は −1 である。 0.65
else end if 𝐷 ← 𝑑 + 𝐷 𝑝 ← 𝐶[𝑝] − 1 その他 end if 𝐷 ← 𝑑 + 𝐷 𝑝 ← 𝐶[𝑝] − 1 0.72
end if end for ⊲ Save max score ⊲ Save splitting position 終われば 終止符 最大スコアを保存します。 0.56
⊲ Initialize description ⊲ Generate split pointer ※初期化記述】 生成スプリットポインタ 0.71
⊲ Noun or noun phrase ⊲ Prep. ※名詞・名詞句 準備中。 0.44
or adj. またはadj。 0.88
英語(論文から抽出)日本語訳スコア
Table 4: Examples of HEF’s prediction, with detailed Fitting Score composition and comparison between the ground truth and the predicted parent. 表4:HEFの予測の例、詳細なフィッティングスコアの構成、地上の真実と予測された親の比較。 0.68
Scores in this table correspond to the node in the same tabular cell with the score. この表のスコアは、スコアが同じ表のセルのノードに対応する。 0.61
Query (𝑞) 𝑞: paddy is rice in the husk either gathered or still in the field クエリ (q) q:水田はハスクの米であり、畑に集まっているか、まだいるかです 0.67
𝐹( ˆ𝑝, 𝑞) = 0.4483 ˆ𝑝’s Ranking: 1 𝑞: fish meal is ground dried fish used as fertilizer and as feed for domestic livestock 𝐹( ˆ𝑝, 𝑞) = 0.3158 ˆ𝑝’s Ranking: 1 𝑞: bourguignon is reduced red wine with onions and parsley and thyme and butter 𝐹( ˆ𝑝, 𝑞) = 1𝑒 − 11 ˆ𝑝’s Ranking: 328 𝑞: hot fudge sauce is hot thick chocolate sauce served hot F(*p, q) = 0.4483 ^p's Ranking: 1 q:魚の食事は肥料として使用され、家畜F(*p, q) = 0.3158 ^p's Ranking: 1 q:bourguignonはタマネギとパセリとタイムとバターF(*p, q) = 1e − 11 ^p's Ranking: 328 q:ホットファッジソースはホット厚めのチョコレートソースを提供するホット厚めのソースです。 0.74
𝐹( ˆ𝑝, 𝑞) = 6𝑒 − 6 ˆ𝑝’s Ranking: 20 F( ~p, q) = 6e − 6 ~p's Ranking:20 0.92
: None Ground Truth ( ˆ𝑝) -なし ground Truth (複数形 Ground Truths) 0.61
: white rice is having husk or outer :白米は殻か外側がある 0.59
: mash is mixture of ground animal マッシュは地上動物の混合物である 0.67
ˆ𝑝: rice is grains used as food either unpolished or more often polished parent( ˆ𝑝): starches is a commercial preparation of starch that is used to stiffen textile fabrics in laundering 𝑐∗ ˆ𝑝 brown layers removed ˆ𝑝: feed is food for domestic livestock parent( ˆ𝑝): food is any substance that can be metabolized by an animal to give energy and build tissue 𝑐∗ ˆ𝑝 feeds ˆ𝑝: sauce is flavorful relish or dressing or topping served as an accompaniment· · · parent( ˆ𝑝): condiment is a preparation (a sauce or relish or spice) to enhance flavor or enjoyment 𝑐∗ ˆ𝑝 wine and shallots and parsley ˆ𝑝: chocolate sauce is sauce made with unsweetened chocolate or cocoa· · · parent( ˆ𝑝): sauce is flavorful relish or dressing or topping served as an accompaniment· · · 𝑐∗ ˆ𝑝 ˆ𝑝: rice is grains used as food either unpolished or more often polished parent( ˆ𝑝): starches is a commercial preparation of starch that is used to stiffen textile fabrics in laundering 𝑐∗ ˆ𝑝 brown layers removed ˆ𝑝: feed is food for domestic livestock parent( ˆ𝑝): food is any substance that can be metabolized by an animal to give energy and build tissue 𝑐∗ ˆ𝑝 feeds ˆ𝑝: sauce is flavorful relish or dressing or topping served as an accompaniment· · · parent( ˆ𝑝): condiment is a preparation (a sauce or relish or spice) to enhance flavor or enjoyment 𝑐∗ ˆ𝑝 wine and shallots and parsley ˆ𝑝: chocolate sauce is sauce made with unsweetened chocolate or cocoa· · · parent( ˆ𝑝): sauce is flavorful relish or dressing or topping served as an accompaniment· · · 𝑐∗ ˆ𝑝 0.89
: bercy is butter creamed with white バーシーは白でバタークリームを焼く 0.54
Scores 𝑆𝑝 = 0.9997 𝑆𝑐 = 0.4599 𝑆𝑓 = 0.9755 スコア 𝑆𝑝 = 0.9997 𝑆𝑐 = 0.4599 𝑆𝑓 = 0.9755 0.68
𝑆𝑏 = 0.9995 𝑆𝑝 = 0.9993 𝑆𝑐 = 0.3169 𝑆𝑓 = 0.9984 𝑆𝑏 = 0.9995 𝑆𝑝 = 0.9993 𝑆𝑐 = 0.3169 𝑆𝑓 = 0.9984 0.73
𝑆𝑏 = 0.9988 𝑆𝑝 = 0.0002 𝑆𝑐 = 0.0001 𝑆𝑓 = 0.0004 𝑆𝑏 = 0.9988 𝑆𝑝 = 0.0002 𝑆𝑐 = 0.0001 𝑆𝑓 = 0.0004 0.73
𝑆𝑏 = 0.9997 𝑆𝑝 = 0.9471 𝑆𝑐 = 9𝑒 − 5 𝑆𝑓 = 0.9617 𝑆𝑏 = 0.9997 𝑆𝑝 = 0.9471 𝑆𝑐 = 9𝑒 − 5 𝑆𝑓 = 0.9617 0.80
𝑆𝑏 = 0.0700 𝑆𝑏 = 0.0700 0.78
Prediction (𝑝) 𝑝: rice is grains used as food either unpolished or more often polished parent(𝑝): starches is a commercial preparation of starch that is used to stiffen textile fabrics in laundering 𝑐∗ 𝑝: white rice is having husk or outer brown layers removed 𝑝: feed is food for domestic livestock parent(𝑝): food is any substance that can be metabolized by an animal to give energy and build tissue 𝑐∗ 𝑝: mash is mixture of ground animal feeds 𝑝: wine is a red as dark as red wine parent(𝑝): alcohol is any of a series of volatile hydroxyl compounds that are made from hydrocarbons by distillation 𝑐∗ 𝑝: red wine is wine having a red color derived from skins of dark-colored grapes 𝑝: sauce is flavorful relish or dressing or topping served as an accompaniment· · · parent(𝑝): condiment is a preparation (a sauce or relish or spice) to enhance flavor or enjoyment 𝑐∗ 𝑝: lyonnaise sauce is brown sauce with sauteed chopped onions and parsley· · · 予測 (p) 𝑝: rice is grains used as food either unpolished or more often polished parent(𝑝): starches is a commercial preparation of starch that is used to stiffen textile fabrics in laundering 𝑐∗ 𝑝: white rice is having husk or outer brown layers removed 𝑝: feed is food for domestic livestock parent(𝑝): food is any substance that can be metabolized by an animal to give energy and build tissue 𝑐∗ 𝑝: mash is mixture of ground animal feeds 𝑝: wine is a red as dark as red wine parent(𝑝): alcohol is any of a series of volatile hydroxyl compounds that are made from hydrocarbons by distillation 𝑐∗ 𝑝: red wine is wine having a red color derived from skins of dark-colored grapes 𝑝: sauce is flavorful relish or dressing or topping served as an accompaniment· · · parent(𝑝): condiment is a preparation (a sauce or relish or spice) to enhance flavor or enjoyment 𝑐∗ 𝑝: lyonnaise sauce is brown sauce with sauteed chopped onions and parsley· · · 0.83
Scores 𝑆𝑝 = 0.9997 𝑆𝑐 = 0.4599 𝑆𝑓 = 0.9755 スコア 𝑆𝑝 = 0.9997 𝑆𝑐 = 0.4599 𝑆𝑓 = 0.9755 0.68
𝑆𝑏 = 0.9995 𝑆𝑝 = 0.9993 𝑆𝑐 = 0.3169 𝑆𝑓 = 0.9984 𝑆𝑏 = 0.9995 𝑆𝑝 = 0.9993 𝑆𝑐 = 0.3169 𝑆𝑓 = 0.9984 0.73
𝑆𝑏 = 0.9988 𝑆𝑝 = 0.9997 𝑆𝑐 = 0.1399 𝑆𝑓 = 0.9812 𝑆𝑏 = 0.9988 𝑆𝑝 = 0.9997 𝑆𝑐 = 0.1399 𝑆𝑓 = 0.9812 0.73
𝑆𝑏 = 0.8784 𝑆𝑝 = 0.9995 𝑆𝑐 = 0.0172 𝑆𝑓 = 0.9888 𝑆𝑏 = 0.8784 𝑆𝑝 = 0.9995 𝑆𝑐 = 0.0172 𝑆𝑓 = 0.9888 0.73
𝑆𝑏 = 0.9995 𝑆𝑏 = 0.9995 0.78
12 12 0.85
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。