論文の概要: NI-UDA: Graph Adversarial Domain Adaptation from
Non-shared-and-Imbalanced Big Data to Small Imbalanced Applications
- arxiv url: http://arxiv.org/abs/2108.05061v1
- Date: Wed, 11 Aug 2021 07:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:42:13.498838
- Title: NI-UDA: Graph Adversarial Domain Adaptation from
Non-shared-and-Imbalanced Big Data to Small Imbalanced Applications
- Title(参考訳): ni-uda: 非共有および不均衡ビッグデータから小さな不均衡アプリケーションへのグラフ逆ドメイン適応
- Authors: Guangyi Xiao, Weiwei Xiang, Huan Liu, Hao Chen, Shun Peng, Jingzhi Guo
and Zhiguo Gong
- Abstract要約: 本稿では,クラス構造の意味的知識推論に基づくGADA(Graph Adrialversa Domain Adaptation)を提案する。
我々のゴールは、優先順位階層の知識を活用して、グラフ推論によるドメインの敵対的整合した特徴表現を強化することである。
2つのベンチマークデータセットの実験により、我々のGAD手法は、最先端のUDAアルゴリズムを一貫して改善することを示した。
- 参考スコア(独自算出の注目度): 18.039770432553247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new general Graph Adversarial Domain Adaptation (GADA) based on
semantic knowledge reasoning of class structure for solving the problem of
unsupervised domain adaptation (UDA) from the big data with non-shared and
imbalanced classes to specified small and imbalanced applications (NI-UDA),
where non-shared classes mean the label space out of the target domain. Our
goal is to leverage priori hierarchy knowledge to enhance domain adversarial
aligned feature representation with graph reasoning. In this paper, to address
two challenges in NI-UDA, we equip adversarial domain adaptation with Hierarchy
Graph Reasoning (HGR) layer and the Source Classifier Filter (SCF). For sparse
classes transfer challenge, our HGR layer can aggregate local feature to
hierarchy graph nodes by node prediction and enhance domain adversarial aligned
feature with hierarchy graph reasoning for sparse classes. Our HGR contributes
to learn direct semantic patterns for sparse classes by hierarchy attention in
self-attention, non-linear mapping and graph normalization. our SCF is proposed
for the challenge of knowledge sharing from non-shared data without negative
transfer effect by filtering low-confidence non-shared data in HGR layer.
Experiments on two benchmark datasets show our GADA methods consistently
improve the state-of-the-art adversarial UDA algorithms, e.g. GADA(HGR) can
greatly improve f1 of the MDD by \textbf{7.19\%} and GVB-GD by \textbf{7.89\%}
respectively on imbalanced source task in Meal300 dataset. The code is
available at https://gadatransfer.wixsite.com/gada.
- Abstract(参考訳): 本稿では,非共有・不均衡なクラスを持つビッグデータから,非共有・不均衡なアプリケーション (NI-UDA) への非教師なしドメイン適応 (UDA) の問題を解決するための,クラス構造の意味的知識推論に基づく汎用グラフ適応型ドメイン適応 (GADA) を提案する。
私たちの目標は、優先順位階層の知識を活用して、グラフ推論によるドメインの逆アライメント機能表現を強化することです。
本稿では, NI-UDAにおける2つの課題に対処するため, 階層グラフ推論(HGR)層とソース分類フィルタ(SCF)を用いて, 対向領域適応を行う。
スパースクラス転送チャレンジでは、ノード予測によって階層グラフノードに局所的特徴を集約し、スパースクラスに対する階層グラフ推論によるドメイン逆アライメント機能を強化する。
我々のHGRは、自己注意、非線形マッピング、グラフ正規化における階層的注意によるスパースクラスの直接的な意味パターンの学習に貢献する。
我々のSCFは,低信頼な非共有データをHGR層にフィルタリングすることで,非共有データからの知識共有を負の伝達効果なしで実現する。
2つのベンチマークデータセットの実験では、GAD手法が最先端のUDAアルゴリズムを一貫して改善していることが示されている。
GADA(HGR) は、Meal300データセットにおける不均衡なソースタスクに対して、それぞれ \textbf{7.19\%} と GVB-GD によって MDD の f1 を大幅に改善することができる。
コードはhttps://gadatransfer.wixsite.com/gada.comで入手できる。
関連論文リスト
- Degree Distribution based Spiking Graph Networks for Domain Adaptation [17.924123705983792]
Spiking Graph Networks (SGNs)は、グラフ分類におけるエネルギー消費の課題に対処する能力のために、研究者と業界双方から大きな注目を集めている。
まず、SGNにおけるドメイン適応問題を提案し、Dgree-aware Spiking Graph Domain Adaptation for Classificationという新しいフレームワークを提案する。
The proposed DeSGDA address the spiking graph domain adapt problem by three aspects: node degree-aware Personal spiking representation, adversarial feature distribution alignment, pseudo-label distillation。
論文 参考訳(メタデータ) (2024-10-09T13:45:54Z) - GraphLoRA: Structure-Aware Contrastive Low-Rank Adaptation for Cross-Graph Transfer Learning [17.85404473268992]
グラフニューラルネットワーク(GNN)は、様々なグラフ解析タスクを扱うのに顕著な習熟度を示した。
汎用性にもかかわらず、GNNはトランスファービリティにおいて重大な課題に直面し、現実のアプリケーションでの利用を制限している。
グラフ領域によく訓練されたGNNを転送するための有効かつパラメータ効率のよいGraphLoRAを提案する。
論文 参考訳(メタデータ) (2024-09-25T06:57:42Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Implicit Graph Neural Diffusion Networks: Convergence, Generalization,
and Over-Smoothing [7.984586585987328]
Inlicit Graph Neural Networks (GNN)は、グラフ学習問題に対処する上で大きな成功を収めた。
パラメータ化グラフラプラシアン演算子に基づく暗黙グラフ拡散層を設計するための幾何学的枠組みを提案する。
ディリクレエネルギー最小化問題の固定点方程式として, 暗黙のGNN層がどう見えるかを示す。
論文 参考訳(メタデータ) (2023-08-07T05:22:33Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment [58.56087979262192]
Open Set Domain Adaptation (OSDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
ラベルシフトによって生じる負の効果を軽減するために,オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
論文 参考訳(メタデータ) (2023-03-08T05:55:02Z) - Zero-shot Domain Adaptation of Heterogeneous Graphs via Knowledge
Transfer Networks [72.82524864001691]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、強力な表現学習技術として優れた性能を示している。
異なるノードタイプにルートされたラベルを使って直接学習する方法はありません。
本研究では,HGNN(HGNN-KTN)のための新しいドメイン適応手法である知識伝達ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-03T21:00:23Z) - Source Free Unsupervised Graph Domain Adaptation [60.901775859601685]
Unsupervised Graph Domain Adaptation (UGDA) はノード分類のラベル付けコストを削減するための実用的価値を示している。
既存のUGDAメソッドの多くは、ソースドメインのラベル付きグラフに大きく依存している。
現実のシナリオでは、ソースグラフはプライバシーの問題のためにアクセスできない。
我々は、Source Free Unsupervised Graph Domain Adaptation (SFUGDA) という新しいシナリオを提案する。
論文 参考訳(メタデータ) (2021-12-02T03:18:18Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。