論文の概要: Knowledge Graph and Hypergraph Transformers with Repository-Attention and Journey-Based Role Transport
- arxiv url: http://arxiv.org/abs/2603.03304v1
- Date: Sat, 07 Feb 2026 22:44:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.130442
- Title: Knowledge Graph and Hypergraph Transformers with Repository-Attention and Journey-Based Role Transport
- Title(参考訳): Repository-Attention and Journey-Based Role Transport を用いた知識グラフとハイパーグラフ変換器
- Authors: Mahesh Godavarti,
- Abstract要約: 本稿では,知識と言語表現を分離したまま,文と構造化データを用いた共同学習のための簡潔なアーキテクチャを提案する。
このモデルは知識グラフとハイパーグラフをロールスロットを持つ構造化インスタンスとして扱い、言語トランスフォーマーが参加可能なキーバリューリポジトリにエンコードする。
本稿では, マルチストリームアーキテクチャ, インスタンスローカル, 近傍, グローバルミキシングアテンションを持つ階層層群, 個別リポジトリ上の検索, マスク付き言語モデリング, リンク予測, ロール整合性を対象とするマルチタスク目標について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a concise architecture for joint training on sentences and structured data while keeping knowledge and language representations separable. The model treats knowledge graphs and hypergraphs as structured instances with role slots and encodes them into a key-value repository that a language transformer can attend over. Attention is conditioned by journey-based role transport, which unifies edge-labeled KG traversal, hyperedge traversal, and sentence structure. We outline a dual-stream architecture, hierarchical layer groups with instance-local, neighborhood, and global mixing attention, retrieval over a separate repository, and multi-task objectives spanning masked language modeling, link prediction, and role-consistency denoising. The result is an explicit, inspectable separation between linguistic context and structured knowledge, while still enabling tight alignment through cross-attention.
- Abstract(参考訳): 本稿では,知識と言語表現を分離したまま,文と構造化データを用いた共同学習のための簡潔なアーキテクチャを提案する。
このモデルは知識グラフとハイパーグラフをロールスロットを持つ構造化インスタンスとして扱い、言語トランスフォーマーが参加可能なキーバリューリポジトリにエンコードする。
注意は、エッジラベル付きKGトラバーサル、ハイパーエッジトラバーサル、および文構造を統一する旅行ベースのロールトランスポートによって条件付けられる。
本稿では, マルチストリームアーキテクチャ, インスタンスローカル, 近傍, グローバルミキシングアテンションを持つ階層層群, 個別リポジトリ上の検索, マスク付き言語モデリング, リンク予測, ロール整合性を対象とするマルチタスク目標について概説する。
その結果は、言語コンテキストと構造化知識の明確かつ検査可能な分離でありながら、クロスアテンションを通じて厳密なアライメントを可能にしている。
関連論文リスト
- Self-Supervised Learning as Discrete Communication [3.33876524834826]
ほとんどの自己教師付き学習(SSL)メソッドは、同じ入力の異なるビューを整列させることで、連続的な視覚表現を学習する。
我々は,教師と学生ネットワーク間の個別のコミュニケーションプロセスとして,視覚的自己教師型学習の枠組みを定めている。
プロジェクションヘッドの周期的再起動は、予測的のままの埋め込みを促進することによって、この効果を高めることを示す。
論文 参考訳(メタデータ) (2026-02-10T13:24:06Z) - A representational framework for learning and encoding structurally enriched trajectories in complex agent environments [1.1470070927586018]
人工知能エージェントが最適な決定を行い、それらを異なるドメインやタスクに一般化する能力は、複雑なシナリオで妥協される。
この問題に対処する方法の1つは、世界の効率的な表現を学習することと、エージェントのアクションが状態-行動遷移においてそれらにどのように影響するかに焦点を当てている。
本稿では,エージェントのオントロジーを強化し,従来のトラジェクトリ概念を拡張し,タスク実行のより微妙な視点を提供することを提案する。
論文 参考訳(メタデータ) (2025-03-17T14:04:27Z) - Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Compositional Generalization in Grounded Language Learning via Induced
Model Sparsity [81.38804205212425]
グリッド環境における単純な言語条件のナビゲーション問題について考察する。
本研究では,オブジェクトの指示文と属性のスパース相関を助長するエージェントを設計し,それらを組み合わせて目的を導出する。
我々のエージェントは、少数のデモンストレーションから学習した場合でも、新しいプロパティの組み合わせを含む目標に対して高いレベルのパフォーマンスを維持している。
論文 参考訳(メタデータ) (2022-07-06T08:46:27Z) - A Knowledge-Enhanced Adversarial Model for Cross-lingual Structured
Sentiment Analysis [31.05169054736711]
言語間構造的感情分析タスクは、ソース言語からターゲット言語へ知識を伝達することを目的としている。
本稿では,暗黙的分散と明示的構造的知識を両立させた知識強化逆数モデル(textttKEAM)を提案する。
我々は5つのデータセットの実験を行い、textttKEAMと教師なしおよび教師なしの両方の手法を比較した。
論文 参考訳(メタデータ) (2022-05-31T03:07:51Z) - Multilingual Extraction and Categorization of Lexical Collocations with
Graph-aware Transformers [86.64972552583941]
我々は,グラフ対応トランスフォーマアーキテクチャにより拡張されたBERTに基づくシーケンスタグ付けモデルを提案し,コンテキストにおけるコロケーション認識の課題について評価した。
以上の結果から, モデルアーキテクチャにおける構文的依存関係を明示的に符号化することは有用であり, 英語, スペイン語, フランス語におけるコロケーションのタイプ化の差異について考察する。
論文 参考訳(メタデータ) (2022-05-23T16:47:37Z) - Improve Discourse Dependency Parsing with Contextualized Representations [28.916249926065273]
本稿では,異なるレベルの単位の文脈化表現を符号化するトランスフォーマーの活用を提案する。
記事間で共通に共有される記述パターンの観察に動機付けられ,談話関係の識別をシーケンスラベリングタスクとして扱う新しい手法を提案する。
論文 参考訳(メタデータ) (2022-05-04T14:35:38Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。