論文の概要: Exploiting Transductive Property of Graph Convolutional Neural Networks
with Less Labeling Effort
- arxiv url: http://arxiv.org/abs/2105.13765v1
- Date: Sat, 1 May 2021 05:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 12:28:39.772446
- Title: Exploiting Transductive Property of Graph Convolutional Neural Networks
with Less Labeling Effort
- Title(参考訳): ラベル付け労力の少ないグラフ畳み込みニューラルネットワークのトランスダクティブ特性の活用
- Authors: Yasir Kilic
- Abstract要約: GCNモデルの開発は、グラフデータに適用された畳み込みフィルタに対して大きな実験的貢献をしている。
トランスダクティブな性質のため、部分的にラベル付けされたすべてのデータサンプルがモデルへの入力として与えられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, machine learning approaches on Graph data have become very popular.
It was observed that significant results were obtained by including implicit or
explicit logical connections between data samples that make up the data to the
model. In this context, the developing GCN model has made significant
experimental contributions with Convolution filters applied to graph data. This
model follows Transductive and Semi-Supervised Learning approach. Due to its
transductive property, all of the data samples, which is partially labeled, are
given as input to the model. Labeling, which is a cost, is very important.
Within the scope of this study, the following research question is tried to be
answered: If at least how many samples are labeled, the optimum model success
is achieved? In addition, some experimental contributions have been made on the
accuracy of the model, whichever sampling approach is used with fixed labeling
effort. According to the experiments, the success of the model can be increased
by using the local centrality metric.
- Abstract(参考訳): 近年,グラフデータに対する機械学習アプローチは非常に人気がある。
モデルにデータを構成するデータサンプル間の暗黙的あるいは明示的な論理的接続を含めることで,有意な結果が得られた。
この文脈で、gcnモデルの開発は、グラフデータに適用される畳み込みフィルタで実験的に貢献してきた。
このモデルはTransductive and Semi-Supervised Learningアプローチに従う。
トランスダクティブな性質のため、部分的にラベル付けされたすべてのデータサンプルがモデルへの入力として与えられる。
ラベル付けはコストであり、非常に重要です。
この研究の範囲内で、以下の研究課題が答えられようとしている。 もし少なくとも何個のサンプルがラベル付けされている場合、最適なモデルの成功は達成されるか?
さらに、モデルの精度について実験的な貢献がなされており、どのサンプリング手法も固定ラベリングの手法を用いている。
実験によると、局所集中度測定を用いてモデルの成功を増大させることができる。
関連論文リスト
- DeFoG: Discrete Flow Matching for Graph Generation [45.037260759871124]
グラフ生成のための離散フローマッチングを用いた新しいフレームワークであるDeFoGを提案する。
DeFoGはフローベースのアプローチを採用しており、効率的な線形雑音化プロセスと柔軟な雑音化プロセスを備えている。
我々は,DeFoGが合成および分子データセット上で最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2024-10-05T18:52:54Z) - Generative Expansion of Small Datasets: An Expansive Graph Approach [13.053285552524052]
最小限のサンプルから大規模で情報豊富なデータセットを生成する拡張合成モデルを提案する。
自己アテンション層と最適なトランスポートを持つオートエンコーダは、分散一貫性を洗練させる。
結果は同等のパフォーマンスを示し、モデルがトレーニングデータを効果的に増強する可能性を示している。
論文 参考訳(メタデータ) (2024-06-25T02:59:02Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Data Augmentation for Supervised Graph Outlier Detection with Latent Diffusion Models [39.33024157496401]
本稿では,遅延拡散モデルを用いた教師付きグラフ外乱検出において,クラス不均衡を緩和する新しいデータ拡張であるGODMを紹介する。
提案手法は,(1)Variantioanlがグラフデータ内に存在する異種情報を統一潜在空間にマッピングし,(2)グラフ生成器が潜在空間から実際の外れ値に統計的に類似したグラフデータを合成し,(3)潜時拡散モデルが反復分解により実際の有機データの潜時空間分布を学習する,という3つの重要な要素から構成される。
論文 参考訳(メタデータ) (2023-12-29T16:50:40Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - SaGess: Sampling Graph Denoising Diffusion Model for Scalable Graph
Generation [7.66297856898883]
SaGess は拡散モデル (DiGress) を一般化された分割・分散フレームワークで拡張することで、大規模な現実世界のネットワークを生成することができる。
SaGessは、最先端のグラフ生成手法の大部分を重要な要因によって上回っている。
論文 参考訳(メタデータ) (2023-06-29T10:02:39Z) - From Spectral Graph Convolutions to Large Scale Graph Convolutional
Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、様々なタスクにうまく適用された強力な概念であることが示されている。
古典グラフ理論の関連部分を含むGCNの定義への道を開いた理論を考察する。
論文 参考訳(メタデータ) (2022-07-12T16:57:08Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。