論文の概要: TransERR: Translation-based Knowledge Graph Embedding via Efficient
Relation Rotation
- arxiv url: http://arxiv.org/abs/2306.14580v2
- Date: Sat, 9 Mar 2024 09:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 17:10:52.255562
- Title: TransERR: Translation-based Knowledge Graph Embedding via Efficient
Relation Rotation
- Title(参考訳): TransERR:効率的な関係回転による知識グラフ埋め込み
- Authors: Jiang Li and Xiangdong Su and Fujun Zhang and Guanglai Gao
- Abstract要約: 本稿では, 効率的な関係回転(TransERR)を用いた翻訳型知識ジェラフ埋め込み手法を提案する。
従来の翻訳ベースモデルとは異なり、TransERRは超複素数値空間の知識グラフを符号化する。
本稿では,TransERRが従来の翻訳モデルよりも少ないパラメータで大規模データセットを符号化できることを示す。
- 参考スコア(独自算出の注目度): 17.315965737288245
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a translation-based knowledge geraph embedding method via
efficient relation rotation (TransERR), a straightforward yet effective
alternative to traditional translation-based knowledge graph embedding models.
Different from the previous translation-based models, TransERR encodes
knowledge graphs in the hypercomplex-valued space, thus enabling it to possess
a higher degree of translation freedom in mining latent information between the
head and tail entities. To further minimize the translation distance, TransERR
adaptively rotates the head entity and the tail entity with their corresponding
unit quaternions, which are learnable in model training. We also provide
mathematical proofs to demonstrate the ability of TransERR in modeling various
relation patterns, including symmetry, antisymmetry, inversion, composition,
and subrelation patterns. The experiments on 10 benchmark datasets validate the
effectiveness and the generalization of TransERR. The results also indicate
that TransERR can better encode large-scale datasets with fewer parameters than
the previous translation-based models. Our code and datasets are available
at~\url{https://github.com/dellixx/TransERR}.
- Abstract(参考訳): 本稿では,従来の翻訳型知識グラフ埋め込みモデルに対して,効率の良い関係回転(TransERR)を用いた翻訳型知識グラフ埋め込み手法を提案する。
従来の翻訳ベースモデルとは異なり、TransERRは超複素数値空間の知識グラフを符号化し、頭と尾のエンティティ間の潜伏情報をマイニングする際の翻訳の自由度を高める。
さらに翻訳距離を最小化するため、TransERRは、モデルのトレーニングで学習可能な、対応する単位四元数でヘッドエンティティとテールエンティティを適応的に回転させる。
また, 対称性, 反対称性, 逆転, 組成, 部分関係パターンなど, 様々な関係パターンをモデル化するTransERRの能力を示す数学的証明も提供する。
10のベンチマークデータセットの実験は、TransERRの有効性と一般化を検証する。
結果は、TransERRが以前の翻訳ベースモデルよりも少ないパラメータで大規模データセットをエンコードできることを示している。
私たちのコードとデータセットは、~\url{https://github.com/dellixx/TransERR}で利用可能です。
関連論文リスト
- Deterministic Reversible Data Augmentation for Neural Machine Translation [36.10695293724949]
本稿では,ニューラルネットワーク翻訳のための簡易かつ効果的なデータ拡張法であるDRDA(Deterministic Reversible Data Augmentation)を提案する。
余分なコーパスやモデルの変更は必要ないため、DRDAはいくつかの翻訳タスクにおいて、明確なマージンで強いベースラインを上回ります。
DRDAはノイズ、低リソース、クロスドメインデータセットにおいて優れた堅牢性を示す。
論文 参考訳(メタデータ) (2024-06-04T17:39:23Z) - TransFusion: Contrastive Learning with Transformers [0.0]
TransFusionは、コントラスト学習のプロセスをより分析的で説明しやすいものにするために設計されている。
結果は、TransFusionが複雑な実世界のデータからクラスタを分離する機能をうまく抽出していることを示している。
論文 参考訳(メタデータ) (2024-03-27T15:24:54Z) - VST++: Efficient and Stronger Visual Saliency Transformer [74.26078624363274]
我々は,グローバルな長距離依存関係を探索する,効率的で強力なVST++モデルを開発した。
我々は、RGB、RGB-D、RGB-T SODベンチマークデータセット上で、トランスフォーマーベースのバックボーンにまたがってモデルを評価した。
論文 参考訳(メタデータ) (2023-10-18T05:44:49Z) - Distributionally Robust Transfer Learning [8.323198205808566]
本稿ではTransDRO(Transfer Learning)のための分散ロバスト最適化手法を提案する。
TransDROは不確実性セット内で最も敵対的な損失を最適化するために設計されている。
本研究では,TransDROが対象データに適合するモデルよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2023-09-12T19:18:52Z) - High-Performance Transformer Tracking [74.07751002861802]
本稿では,シームズ様特徴抽出バックボーンをベースとしたTransformer Tracking(TransT)手法,設計した注意に基づく融合機構,分類と回帰ヘッドを提案する。
実験の結果,TransT法とTransT-M法は7つの一般的なデータセットに対して有望な結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-25T09:33:29Z) - Improving Neural Machine Translation by Bidirectional Training [85.64797317290349]
我々は、ニューラルネットワーク翻訳のためのシンプルで効果的な事前学習戦略である双方向トレーニング(BiT)を提案する。
具体的には、初期モデルのパラメータを双方向に更新し、正常にモデルを調整する。
実験の結果,BiTは8つの言語対上の15の翻訳タスクに対して,SOTAニューラルマシン翻訳性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:58:33Z) - RelTransformer: Balancing the Visual Relationship Detection from Local
Context, Scene and Memory [24.085223165006212]
複数の画像レベルからリッチなセマンティック特徴を用いた関係予測を行うRelTransformerと呼ばれる新しいフレームワークを提案する。
GQA-LTの精度は27.4%向上し,尾部関係予測における最良基準となる。
論文 参考訳(メタデータ) (2021-04-24T12:04:04Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - TransGAN: Two Transformers Can Make One Strong GAN [111.07699201175919]
我々は、純粋なトランスフォーマーベースのアーキテクチャのみを用いて、完全に畳み込みのないGANテキストを構築できる最初のパイロット研究を行う。
バニラGANアーキテクチャはtextbfTransGANと呼ばれ、メモリフレンドリーなトランスフォーマーベースのジェネレータで構成されています。
当社の最高のアーキテクチャは、コンボリューションバックボーンに基づく最新のGANと比較して非常に競争力のあるパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-14T05:24:48Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。