論文の概要: Infer-AVAE: An Attribute Inference Model Based on Adversarial
Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2012.15005v1
- Date: Wed, 30 Dec 2020 02:03:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:04:55.685787
- Title: Infer-AVAE: An Attribute Inference Model Based on Adversarial
Variational Autoencoder
- Title(参考訳): infer-avae: 逆変分オートエンコーダに基づく属性推論モデル
- Authors: Yadong Zhou, Zhihao Ding, Xiaoming Liu, Chao Shen, Lingling Tong,
Xiaohong Guan
- Abstract要約: 変分オートエンコーダ(VAE)は半教師付き方式でこの問題を解くのに成功している。
その結果、デコーダを規制する既存のメソッドには十分な推論能力がない。
逆VAE(Infer-AVAE)に基づく属性推論モデルを提案する。
- 参考スコア(独自算出の注目度): 29.911131718980542
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Facing the sparsity of user attributes on social networks, attribute
inference aims at inferring missing attributes based on existing data and
additional information such as social connections between users. Recently,
Variational Autoencoders (VAEs) have been successfully applied to solve the
problem in a semi-supervised way. However, the latent representations learned
by the encoder contain either insufficient or useless information: i) MLPs can
successfully reconstruct the input data but fail in completing missing part,
ii) GNNs merge information according to social connections but suffer from
over-smoothing, which is a common problem with GNNs. Moreover, existing methods
neglect regulating the decoder, as a result, it lacks adequate inference
ability and faces severe overfitting. To address the above issues, we propose
an attribute inference model based on adversarial VAE (Infer-AVAE). Our model
deliberately unifies MLPs and GNNs in encoder to learn dual latent
representations: one contains only the observed attributes of each user, the
other converges extra information from the neighborhood. Then, an adversarial
network is trained to leverage the differences between the two representations
and adversarial training is conducted to guide GNNs using MLPs for robust
representations. What's more, mutual information constraint is introduced in
loss function to specifically train the decoder as a discriminator. Thus, it
can make better use of auxiliary information in the representations for
attribute inference. Based on real-world social network datasets, experimental
results demonstrate that our model averagely outperforms state-of-art by 7.0%
in accuracy.
- Abstract(参考訳): ソーシャルネットワーク上でのユーザ属性の空間性に欠ける属性推論は、既存のデータとユーザ間のソーシャル接続などの追加情報に基づいて、欠落した属性を推測することを目的としている。
近年,変分オートエンコーダ (VAE) が半教師付き方式でこの問題の解決に成功している。
しかし、エンコーダが学習した潜伏表現には、不十分な情報または無駄な情報が含まれる:i) MLPは、入力データをうまく再構築するが、欠落部分の完了に失敗する;i) GNNは、社会的つながりに応じて情報をマージするが、GNNでは共通の問題である過密化に悩まされる。
さらに、既存の手法ではデコーダの規制を無視しており、十分な推論能力がなく、厳しいオーバーフィッティングに直面している。
上記の問題に対処するため,逆VAE(Infer-AVAE)に基づく属性推論モデルを提案する。
私たちのモデルは、エンコーダ内のmlpとgnnを意図的に統一して、2つの潜在表現を学習します。
次に,2つの表現の違いを活用するために,敵対ネットワークを訓練し,強靭な表現のためにMPPを用いてGNNを誘導する。
さらに、識別器としてデコーダを特に訓練するために、損失関数に相互情報制約を導入する。
したがって、属性推論の表現における補助情報をよりよく活用することができる。
実世界のsnsデータセットに基づいて, 実験結果から, 本モデルの平均的な精度は7.0%向上した。
関連論文リスト
- Unlocking the Hidden Treasures: Enhancing Recommendations with Unlabeled Data [12.53644929739924]
コラボレーティブ・フィルタリング(CF)はレコメンダ・システムの基盤となっている。
ニュートラル・ニュートラル・ネガティブ(PNN)学習パラダイムを新たに導入する。
PNNは複雑なユーザの好みを学習するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-12-24T05:07:55Z) - Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - Autoencoder based approach for the mitigation of spurious correlations [2.7624021966289605]
純粋な相関は、真の基盤となる関係を反映しないデータの誤関連を指す。
これらの相関により、ディープニューラルネットワーク(DNN)は、さまざまなデータセットや実世界のシナリオで堅牢でないパターンを学ぶことができる。
本稿では,GWHD(Global Wheat Head Detection)2021データセットに存在するスプリアス相関の性質を自動エンコーダで解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-27T05:28:44Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Mutual Information Learned Classifiers: an Information-theoretic
Viewpoint of Training Deep Learning Classification Systems [9.660129425150926]
クロスエントロピー損失は、重度のオーバーフィッティング動作を示すモデルを見つけるのに容易である。
本稿では,既存のDNN分類器のクロスエントロピー損失最小化が,基礎となるデータ分布の条件エントロピーを本質的に学習することを証明する。
ラベルと入力の相互情報を学習することで、DNN分類器を訓練する相互情報学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-03T15:09:19Z) - Correlation Information Bottleneck: Towards Adapting Pretrained
Multimodal Models for Robust Visual Question Answering [63.87200781247364]
相関情報ボトルネック (CIB) は圧縮と表現の冗長性のトレードオフを求める。
マルチモーダル入力と表現の相互情報に対して,理論上界を厳密に導出する。
論文 参考訳(メタデータ) (2022-09-14T22:04:10Z) - Bounding Information Leakage in Machine Learning [26.64770573405079]
本稿では,情報漏洩の基本的な境界について検討する。
最悪の会員推論攻撃の成功率を特定し、拘束します。
感度の高い属性とモデルパラメータの間の相互情報の境界を導出する。
論文 参考訳(メタデータ) (2021-05-09T08:49:14Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。