論文の概要: Self-Labeling of Fully Mediating Representations by Graph Alignment
- arxiv url: http://arxiv.org/abs/2103.14133v1
- Date: Thu, 25 Mar 2021 21:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:37:59.435429
- Title: Self-Labeling of Fully Mediating Representations by Graph Alignment
- Title(参考訳): グラフアライメントによる完全媒介表現の自己ラベル化
- Authors: Martijn Oldenhof, Adam Arany, Yves Moreau and Jaak Simm
- Abstract要約: 通常のラベル$W$を与えられたリッチラベルまたは詳細ラベルを生成するグラフアライメントアプローチを提案します。
4000個のデータポイントのみを用いて、ターゲットドメインへのドメイン適応後のパフォーマンスを最大4倍改善する。
提案された自己ラベルアプローチは、現在の技術よりも高いパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 3.441021278275805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To be able to predict a molecular graph structure ($W$) given a 2D image of a
chemical compound ($U$) is a challenging problem in machine learning. We are
interested to learn $f: U \rightarrow W$ where we have a fully mediating
representation $V$ such that $f$ factors into $U \rightarrow V \rightarrow W$.
However, observing V requires detailed and expensive labels. We propose graph
aligning approach that generates rich or detailed labels given normal labels
$W$. In this paper we investigate the scenario of domain adaptation from the
source domain where we have access to the expensive labels $V$ to the target
domain where only normal labels W are available. Focusing on the problem of
predicting chemical compound graphs from 2D images the fully mediating layer is
represented using the planar embedding of the chemical graph structure we are
predicting. The use of a fully mediating layer implies some assumptions on the
mechanism of the underlying process. However if the assumptions are correct it
should allow the machine learning model to be more interpretable, generalize
better and be more data efficient at training time. The empirical results show
that, using only 4000 data points, we obtain up to 4x improvement of
performance after domain adaptation to target domain compared to pretrained
model only on the source domain. After domain adaptation, the model is even
able to detect atom types that were never seen in the original source domain.
Finally, on the Maybridge data set the proposed self-labeling approach reached
higher performance than the current state of the art.
- Abstract(参考訳): 化合物の2次元画像(U$)が与えられた場合、分子グラフ構造(W$)を予測することは、機械学習において難しい問題である。
u \rightarrow w$ ここで、$f$が$u \rightarrow v \rightarrow w$となるような完全な仲介表現$v$があります。
しかしながら、Vを観察するには詳細なラベルと高価なラベルが必要である。
正規ラベルが$W$のリッチラベルや詳細ラベルを生成するグラフ整合手法を提案する。
本稿では,通常のラベルWのみが利用可能なターゲットドメインに対して,高価なラベル$V$をアクセス可能なソースドメインからのドメイン適応のシナリオについて検討する。
2次元画像から化合物グラフを予測する問題に焦点をあてて, 予測する化学グラフ構造の平面埋め込みを用いて, 完全な中間層を表現する。
完全な仲介層の使用は、基盤となるプロセスのメカニズムに関するいくつかの仮定を意味する。
しかし、仮定が正しければ、機械学習モデルはより解釈可能になり、より一般化され、トレーニング時にデータ効率が向上するはずだ。
実験の結果,4000個のデータポイントのみを用いて,対象領域へのドメイン適応後の性能が,ソース領域のみの事前学習モデルと比較して最大4倍向上したことがわかった。
ドメイン適応後、モデルは元のソースドメインで見たことのない原子タイプを検出できる。
最後に、maybridgeデータセットでは、提案された自己ラベルアプローチは、現在の技術よりも高いパフォーマンスに達した。
関連論文リスト
- You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Finding Diverse and Predictable Subgraphs for Graph Domain
Generalization [88.32356432272356]
本稿では,不明瞭な分布シフトにより性能が低下するグラフの分布外一般化に着目した。
本稿では,DPSと呼ばれる新しいグラフ領域の一般化フレームワークを提案する。
ノードレベルのベンチマークとグラフレベルのベンチマークの両方の実験により、提案したDPSはグラフ領域の一般化タスクにおいて印象的な性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-06-19T07:57:56Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Bringing Your Own View: Graph Contrastive Learning without Prefabricated
Data Augmentations [94.41860307845812]
Self-supervisionは最近、グラフ学習の新しいフロンティアに力を入れている。
GraphCLは、グラフデータ拡張のアドホックな手作業による選択によって反映されたプレハブ付きプリファブリックを使用する。
グラフ生成器のパラメータ空間における学習可能な連続前処理へと拡張した。
我々は、情報最小化(InfoMin)と情報ボトルネック(InfoBN)の2つの原則を利用して、学習した事前情報を規則化する。
論文 参考訳(メタデータ) (2022-01-04T15:49:18Z) - Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition [98.25592165484737]
CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
論文 参考訳(メタデータ) (2021-12-17T18:59:41Z) - Source Free Unsupervised Graph Domain Adaptation [60.901775859601685]
Unsupervised Graph Domain Adaptation (UGDA) はノード分類のラベル付けコストを削減するための実用的価値を示している。
既存のUGDAメソッドの多くは、ソースドメインのラベル付きグラフに大きく依存している。
現実のシナリオでは、ソースグラフはプライバシーの問題のためにアクセスできない。
我々は、Source Free Unsupervised Graph Domain Adaptation (SFUGDA) という新しいシナリオを提案する。
論文 参考訳(メタデータ) (2021-12-02T03:18:18Z) - Efficient Variational Graph Autoencoders for Unsupervised Cross-domain
Prerequisite Chains [3.358838755118655]
本稿では,このドメイン間前提連鎖学習タスクを効率的に解くために,DAVGAE(Domain-versaational Variational Graph Autoencoders)を導入する。
我々の新しいモデルは変分グラフオートエンコーダ(VGAE)とドメイン識別器から構成される。
その結果,本モデルは1/10グラフスケールと1/3時間のみを用いて,最近のグラフベースの計算より優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-17T19:07:27Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - Pseudoinverse Graph Convolutional Networks: Fast Filters Tailored for
Large Eigengaps of Dense Graphs and Hypergraphs [0.0]
Graph Convolutional Networks (GCNs) は、グラフベースのデータセットで半教師付き分類を行うツールとして成功している。
本稿では,三部フィルタ空間が高密度グラフを対象とする新しいGCN変種を提案する。
論文 参考訳(メタデータ) (2020-08-03T08:48:41Z) - GraphGen: A Scalable Approach to Domain-agnostic Labeled Graph
Generation [5.560715621814096]
グラフ生成モデルは、データマイニングの文献で広く研究されている。
最近の技術は、データから直接この分布を学習する方向に移行している。
本研究では、これらの制限をすべて克服するために、GraphGenと呼ばれるドメインに依存しないテクニックを開発します。
論文 参考訳(メタデータ) (2020-01-22T18:07:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。