論文の概要: Universal Representation Learning of Knowledge Bases by Jointly
Embedding Instances and Ontological Concepts
- arxiv url: http://arxiv.org/abs/2103.08115v1
- Date: Mon, 15 Mar 2021 03:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 13:50:46.265791
- Title: Universal Representation Learning of Knowledge Bases by Jointly
Embedding Instances and Ontological Concepts
- Title(参考訳): インスタンスとオントロジー概念を融合した知識基盤の普遍的表現学習
- Authors: Junheng Hao, Muhao Chen, Wenchao Yu, Yizhou Sun, Wei Wang
- Abstract要約: 我々は,より優れた知識の埋め込みを実現するために,新しい2視点KG埋め込みモデルJOIEを提案する。
JOIEは、知識基盤の複数の側面を学習するクロスビューおよびイントラビューモデリングを採用しています。
私たちのモデルは、大規模なインスタンスと(小さな)クロスビューリンクを介して接続された対応するオントロジ概念からなる大規模な知識ベースで訓練されます。
- 参考スコア(独自算出の注目度): 39.99087114075884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many large-scale knowledge bases simultaneously represent two views of
knowledge graphs (KGs): an ontology view for abstract and commonsense concepts,
and an instance view for specific entities that are instantiated from
ontological concepts. Existing KG embedding models, however, merely focus on
representing one of the two views alone. In this paper, we propose a novel
two-view KG embedding model, JOIE, with the goal to produce better knowledge
embedding and enable new applications that rely on multi-view knowledge. JOIE
employs both cross-view and intra-view modeling that learn on multiple facets
of the knowledge base. The cross-view association model is learned to bridge
the embeddings of ontological concepts and their corresponding instance-view
entities. The intra-view models are trained to capture the structured knowledge
of instance and ontology views in separate embedding spaces, with a
hierarchy-aware encoding technique enabled for ontologies with hierarchies. We
explore multiple representation techniques for the two model components and
investigate with nine variants of JOIE. Our model is trained on large-scale
knowledge bases that consist of massive instances and their corresponding
ontological concepts connected via a (small) set of cross-view links.
Experimental results on public datasets show that the best variant of JOIE
significantly outperforms previous models on instance-view triple prediction
task as well as ontology population on ontologyview KG. In addition, our model
successfully extends the use of KG embeddings to entity typing with promising
performance.
- Abstract(参考訳): 多くの大規模知識基盤は、抽象概念と常識概念のオントロジービューと、存在論的概念からインスタンス化される特定のエンティティのインスタンスビューという、2つの知識グラフ(KG)のビューを同時に表現する。
しかし、既存のKG埋め込みモデルは、単に2つのビューの1つを表現することに集中するだけです。
本稿では,より優れた知識の埋め込みを実現し,多視点知識に依存した新しいアプリケーションを実現することを目的とした,新しい2視点KG埋め込みモデルJOIEを提案する。
JOIEは、知識基盤の複数の側面を学習するクロスビューとイントラビューの両方のモデリングを採用しています。
クロスビュー関連モデルは、オントロジーの概念とその対応するインスタンスビューエンティティの埋め込みを橋渡しするために学習される。
ビュー内モデルは、階層構造を持つオントロジーで利用できる階層型エンコーディング技術を用いて、個別の埋め込み空間におけるインスタンスおよびオントロジービューの構造的知識をキャプチャするために訓練される。
2つのモデルコンポーネントの複数の表現手法を探索し、JOIEの9つの変種について検討する。
私たちのモデルは、大規模なインスタンスと(小さな)クロスビューリンクを介して接続された対応するオントロジ概念からなる大規模な知識ベースで訓練されます。
パブリックデータセットの実験結果から、JOIEの最良のバリエーションは、インスタンスビュートリプル予測タスクの以前のモデルとオントロジービューKGのオントロジー人口を大幅に上回ることが示された。
さらに,本モデルでは,KG埋め込みの使用を,有望な性能でエンティティタイピングに拡張することに成功した。
関連論文リスト
- Mining Frequent Structures in Conceptual Models [2.841785306638839]
本稿では,概念モデリング言語における頻繁な構造発見問題に対する一般的なアプローチを提案する。
我々は,頻繁な部分グラフマイニングアルゴリズムとグラフ操作手法を組み合わせる。
主な目的は、言語エンジニアのためのサポート施設を提供することである。
論文 参考訳(メタデータ) (2024-06-11T10:24:02Z) - Knowledge Graph Embedding: An Overview [42.16033541753744]
本稿では,知識グラフの完成に関する現在の研究状況について概観する。
我々は,KG埋め込み(KGE)設計の2つの主要分野に焦点を当てた:1)距離ベース手法と2)意味マッチング方式である。
次に,2次元および3次元アフィン操作からインスピレーションを得る複合Eと複合E3Dを探索する。
論文 参考訳(メタデータ) (2023-09-21T21:52:42Z) - CommonsenseVIS: Visualizing and Understanding Commonsense Reasoning
Capabilities of Natural Language Models [30.63276809199399]
本稿では,外部コモンセンス知識ベースを用いた視覚的説明システムであるCommonsenseVISについて述べる。
本システムでは,異なる概念とその基盤となる関係について,多段階の可視化とインタラクティブなモデル探索と編集を行う。
論文 参考訳(メタデータ) (2023-07-23T17:16:13Z) - Concept2Box: Joint Geometric Embeddings for Learning Two-View Knowledge
Graphs [77.10299848546717]
Concept2Boxは、KGの2つのビューを共同で埋め込む新しいアプローチである。
ボックス埋め込みは、それら間の重複や解離のような階層構造と複雑な関係を学習する。
本稿では,新しいベクトル-ボックス間距離測定法を提案し,両者の埋め込みを共同で学習する。
論文 参考訳(メタデータ) (2023-07-04T21:37:39Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Ontology-based n-ball Concept Embeddings Informing Few-shot Image
Classification [5.247029505708008]
ViOCEは、ニューラルネットワークベースの視覚アーキテクチャに、$n$-ballの概念を組み込む形で、象徴的な知識を統合する。
本稿では,2つの標準ベンチマークにおいて,画像分類のタスクを用いてViOCEを評価し,優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-19T05:35:43Z) - Bowtie Networks: Generative Modeling for Joint Few-Shot Recognition and
Novel-View Synthesis [39.53519330457627]
本稿では,複数ショット認識と新規ビュー合成という新たな課題を提案する。
我々は、オブジェクト分類器を同時に学習し、新しい視点からそのタイプのオブジェクトの画像を生成することを目的としている。
生成モデルと識別モデルとの相互作用と協調に焦点を当てる。
論文 参考訳(メタデータ) (2020-08-16T19:40:56Z) - Look-into-Object: Self-supervised Structure Modeling for Object
Recognition [71.68524003173219]
我々は,自己スーパービジョンを取り入れた「対象」(具体的かつ内在的に対象構造をモデル化する)を提案する。
認識バックボーンは、より堅牢な表現学習のために大幅に拡張可能であることを示す。
提案手法は汎用オブジェクト認識(ImageNet)や細粒度オブジェクト認識タスク(CUB, Cars, Aircraft)など,多数のベンチマークにおいて大きなパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-03-31T12:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。