論文の概要: NASE: Learning Knowledge Graph Embedding for Link Prediction via Neural
Architecture Search
- arxiv url: http://arxiv.org/abs/2008.07723v1
- Date: Tue, 18 Aug 2020 03:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:32:03.441940
- Title: NASE: Learning Knowledge Graph Embedding for Link Prediction via Neural
Architecture Search
- Title(参考訳): NASE:ニューラルネットワークによるリンク予測のための知識グラフ埋め込み学習
- Authors: Xiaoyu Kou, Bingfeng Luo, Huang Hu and Yan Zhang
- Abstract要約: リンク予測は、知識グラフ(KG)におけるエンティティ間の欠落した接続を予測するタスクである
これまでの研究では、Automated Machine Learning(AutoML)を使用して、データセットに最適なモデルを探していた。
リンク予測タスクのための新しいニューラルネットワーク探索(NAS)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.634626241415916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Link prediction is the task of predicting missing connections between
entities in the knowledge graph (KG). While various forms of models are
proposed for the link prediction task, most of them are designed based on a few
known relation patterns in several well-known datasets. Due to the diversity
and complexity nature of the real-world KGs, it is inherently difficult to
design a model that fits all datasets well. To address this issue, previous
work has tried to use Automated Machine Learning (AutoML) to search for the
best model for a given dataset. However, their search space is limited only to
bilinear model families. In this paper, we propose a novel Neural Architecture
Search (NAS) framework for the link prediction task. First, the embeddings of
the input triplet are refined by the Representation Search Module. Then, the
prediction score is searched within the Score Function Search Module. This
framework entails a more general search space, which enables us to take
advantage of several mainstream model families, and thus it can potentially
achieve better performance. We relax the search space to be continuous so that
the architecture can be optimized efficiently using gradient-based search
strategies. Experimental results on several benchmark datasets demonstrate the
effectiveness of our method compared with several state-of-the-art approaches.
- Abstract(参考訳): リンク予測は、知識グラフ(KG)内のエンティティ間の欠落した接続を予測するタスクである。
リンク予測タスクには様々なモデル形式が提案されているが、そのほとんどは、よく知られたデータセットのいくつかの既知の関係パターンに基づいて設計されている。
実世界のkgsの多様性と複雑さのため、すべてのデータセットに適合するモデルを設計するのは本質的に困難である。
この問題に対処するため、以前の作業では、Automated Machine Learning(AutoML)を使用して、特定のデータセットに最適なモデルを探していた。
しかし、それらの探索空間は双線型モデル族に限られている。
本稿では,リンク予測タスクのための新しいニューラルネットワーク探索(NAS)フレームワークを提案する。
まず、入力三重項の埋め込みは表現探索モジュールによって洗練される。
次に、予測スコアをスコア関数検索モジュール内で検索する。
このフレームワークはより汎用的な検索空間を備えており、いくつかの主流モデルファミリを活用できるため、パフォーマンスが向上する可能性がある。
我々は,グラデーションに基づく検索戦略を用いて,アーキテクチャを効率的に最適化できるように,検索空間を連続的に緩和する。
いくつかのベンチマークデータセットによる実験結果から,提案手法の有効性が示された。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - RoarGraph: A Projected Bipartite Graph for Efficient Cross-Modal Approximate Nearest Neighbor Search [11.069814476661827]
クロスモーダルANNSは、あるモダリティからデータベクトルを使用して、他のモダリティから最も類似したアイテムを検索することを目的としている。
最先端のANNSアプローチでは、OODワークロードのパフォーマンスが低下している。
本稿では、クエリ分布のガイダンスに基づいて構築された効率的なANNSグラフインデックスであるpRojected bipartite Graph(RoarGraph)を提案する。
論文 参考訳(メタデータ) (2024-08-16T06:48:16Z) - Fairer and More Accurate Tabular Models Through NAS [14.147928131445852]
本稿では,多目的ニューラルアーキテクチャサーチ (NAS) とハイパーパラメータ最適化 (HPO) を,表データの非常に困難な領域への最初の応用として提案する。
我々はNASで精度のみに最適化されたモデルが、本質的に公正な懸念に対処できないことをしばしば示している。
公平性、正確性、あるいは両方において、最先端のバイアス緩和手法を一貫して支配するアーキテクチャを作成します。
論文 参考訳(メタデータ) (2023-10-18T17:56:24Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - Arch-Graph: Acyclic Architecture Relation Predictor for
Task-Transferable Neural Architecture Search [96.31315520244605]
Arch-Graphはタスク固有の最適アーキテクチャを予測するトランスファー可能なNASメソッドである。
Arch-Graphの転送性と,多数のタスクにわたる高いサンプル効率を示す。
わずか50モデルの予算の下で、2つの検索スペースで平均して0.16%と0.29%のアーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2022-04-12T16:46:06Z) - An Approach for Combining Multimodal Fusion and Neural Architecture
Search Applied to Knowledge Tracing [6.540879944736641]
本稿では,マルチモーダル融合とニューラルアーキテクチャ探索を組み合わせた逐次モデルに基づく最適化手法を提案する。
得られたモデルが優れた性能を達成できることを示す2つの公開実データに対して,本手法の評価を行った。
論文 参考訳(メタデータ) (2021-11-08T13:43:46Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - One-Shot Neural Ensemble Architecture Search by Diversity-Guided Search
Space Shrinking [97.60915598958968]
本稿では,この2つの課題に対処するワンショットニューラルアンサンブルアーキテクチャサーチ(NEAS)ソリューションを提案する。
最初の課題として,探索空間の縮小を導くために,多様性に基づく新しい指標を導入する。
第2の課題として,異なるモデル間の階層共有を効率向上のために学習する新たな探索次元を実現する。
論文 参考訳(メタデータ) (2021-04-01T16:29:49Z) - AutoRC: Improving BERT Based Relation Classification Models via
Architecture Search [50.349407334562045]
BERTに基づく関係分類(RC)モデルは、従来のディープラーニングモデルよりも大幅に改善されている。
最適なアーキテクチャとは何かという合意は得られない。
BERTをベースとしたRCモデルのための包括的検索空間を設計し、設計選択を自動的に検出するためにNAS(Neural Architecture Search)手法を用いる。
論文 参考訳(メタデータ) (2020-09-22T16:55:49Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。