論文の概要: An Analysis of Euclidean vs. Graph-Based Framing for Bilingual Lexicon
Induction from Word Embedding Spaces
- arxiv url: http://arxiv.org/abs/2109.12640v1
- Date: Sun, 26 Sep 2021 16:06:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:36:28.535566
- Title: An Analysis of Euclidean vs. Graph-Based Framing for Bilingual Lexicon
Induction from Word Embedding Spaces
- Title(参考訳): 単語埋め込み空間からのバイリンガル語彙誘導のためのeuclidean vs. graph-based framingの解析
- Authors: Kelly Marchisio, Youngser Park, Ali Saad-Eldin, Anton Alyakin, Kevin
Duh, Carey Priebe, Philipp Koehn
- Abstract要約: バイリンガル語彙誘導(BLI)における最近の研究は、単語の埋め込みをユークリッド空間のベクトルと見なしている。
異なるデータ条件下でのBLIに対するユークリッドとグラフに基づくアプローチの挙動について検討する。
- 参考スコア(独自算出の注目度): 12.624567644754638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much recent work in bilingual lexicon induction (BLI) views word embeddings
as vectors in Euclidean space. As such, BLI is typically solved by finding a
linear transformation that maps embeddings to a common space. Alternatively,
word embeddings may be understood as nodes in a weighted graph. This framing
allows us to examine a node's graph neighborhood without assuming a linear
transform, and exploits new techniques from the graph matching optimization
literature. These contrasting approaches have not been compared in BLI so far.
In this work, we study the behavior of Euclidean versus graph-based approaches
to BLI under differing data conditions and show that they complement each other
when combined. We release our code at
https://github.com/kellymarchisio/euc-v-graph-bli.
- Abstract(参考訳): バイリンガル語彙誘導(BLI)における最近の研究は、単語の埋め込みをユークリッド空間のベクトルと見なしている。
したがって、BLIは通常、埋め込みを共通空間に写像する線型変換を見つけることで解決される。
あるいは、単語埋め込みは重み付きグラフのノードとして理解することができる。
このフレーミングにより、線形変換を仮定せずにノードのグラフ近傍を調べることができ、グラフマッチング最適化文献から新しいテクニックを活用できる。
これらの対照的なアプローチは、これまでBLIでは比較されていない。
本研究では,異なるデータ条件下でのBLIに対するユークリッドとグラフに基づくアプローチの挙動について検討し,組み合わせた場合の相互補完効果を示す。
コードはhttps://github.com/kellymarchisio/euc-v-graph-bliでリリースします。
関連論文リスト
- Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs [60.71360240206726]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて幻覚に悩まされる。
既存の研究は、外部知識コーパスから取得した個々のテキスト単位でLLMを拡張することを提案する。
本稿では,グラフを反復的に推論することで,LLMをグラフで拡張するためのGraph Chain-of-thinkt (Graph-CoT) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T15:41:53Z) - GSINA: Improving Subgraph Extraction for Graph Invariant Learning via
Graph Sinkhorn Attention [52.67633391931959]
グラフ不変学習(GIL)は,グラフデータとそのラベル間の不変性を発見するための効果的な手法である。
グラフシンクホーン注意機構(GSINA)を提案する。
GSINAは、制御可能な空間性と柔らかさを持つ有意義で微分可能な不変部分グラフを得ることができる。
論文 参考訳(メタデータ) (2024-02-11T12:57:16Z) - Learning Multiplex Representations on Text-Attributed Graphs with One Language Model Encoder [55.24276913049635]
テキスト分散グラフ上での多重表現学習のための新しいフレームワークMETAGを提案する。
既存の手法とは対照的に、MeTAGは1つのテキストエンコーダを使用して関係性間の共有知識をモデル化する。
学術分野と電子商取引分野の5つのグラフにおいて,9つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2023-10-10T14:59:22Z) - ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings [20.25180279903009]
テキスト分散グラフ(TAG)におけるテキストとノードの分離表現を共同学習するためのContrastive Graph-Text Pretraining(ConGraT)を提案する。
提案手法は言語モデル(LM)とグラフニューラルネットワーク(GNN)を訓練し,CLIPにインスパイアされたバッチワイドコントラスト学習目標を用いて,それらの表現を共通の潜在空間に整列させる。
実験により、ConGraTは、ノードとテキストのカテゴリ分類、リンク予測、言語モデリングなど、さまざまな下流タスクのベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-23T17:53:30Z) - Mind the Label Shift of Augmentation-based Graph OOD Generalization [88.32356432272356]
LiSAは、トレーニンググラフの textbfLabel-textbfinvariant textbfSubgraphs を利用して textbfAugmented環境を構築する。
LiSAは、一貫した予測関係を持つ多様な拡張環境を生成する。
ノードレベルのOODベンチマークとグラフレベルのOODベンチマークの実験により、LiSAは異なるGNNバックボーンで印象的な一般化性能を達成することが示された。
論文 参考訳(メタデータ) (2023-03-27T00:08:45Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Entailment Graph Learning with Textual Entailment and Soft Transitivity [69.91691115264132]
テキスト・エンタテインメント・トランジシティー(EGT2)を用いた2段階のエンタテインメント・グラフを提案する。
EGT2 は CCG パースした述語によって形成されるテンプレート文間のテキスト的含意を認識することにより、局所的含意関係を学習する。
生成した局所グラフに基づいて、EGT2は3つの新しいソフトな推移性制約を用いて、包含構造における論理的推移性を考える。
論文 参考訳(メタデータ) (2022-04-07T08:33:06Z) - Online Graph Dictionary Learning [10.394615068526505]
本論文では,Gromov Wassersteinの発散をデータフィッティング用語として用いるオンライングラフ辞書学習手法を提案する。
私たちの研究では、グラフはノードの対関係を通じてエンコードされ、グラフ原子の凸結合としてモデル化されます。
私たちのアプローチはラベル付きグラフに自然に拡張され、埋め込み空間におけるGromov Wassersteinの高速近似として使用できる新しい上界によって完了されます。
論文 参考訳(メタデータ) (2021-02-12T14:39:28Z) - Embedding Words in Non-Vector Space with Unsupervised Graph Learning [33.51809615505692]
GraphGlove: エンドツーエンドで学習される教師なしグラフワード表現について紹介する。
我々の設定では、各単語は重み付きグラフのノードであり、単語間の距離は対応するノード間の最短経路距離である。
グラフに基づく表現は、単語類似性や類似性タスクにおいて、ベクターベースの手法よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-10-06T10:17:49Z) - Wasserstein Embedding for Graph Learning [33.90471037116372]
Wasserstein Embedding for Graph Learning (WEGL)は、グラフ全体をベクトル空間に埋め込むフレームワークである。
グラフ間の類似性をノード埋め込み分布間の類似性の関数として定義する上で,新たな知見を活用する。
各種ベンチマークグラフ固有性予測タスクにおける新しいグラフ埋め込み手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-16T18:23:00Z) - 5* Knowledge Graph Embeddings with Projective Transformations [13.723120574076127]
射影幾何学における知識グラフ埋め込みモデル(5*E)を提案する。
インバージョン、リフレクション、翻訳、回転、ホモセティといった複数の同時変換をサポートする。
これは、最も広く使われているリンク予測ベンチマークにおいて、既存のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-06-08T23:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。