論文の概要: Rel-MOSS: Towards Imbalanced Relational Deep Learning on Relational Databases
- arxiv url: http://arxiv.org/abs/2603.07916v1
- Date: Mon, 09 Mar 2026 03:18:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.397533
- Title: Rel-MOSS: Towards Imbalanced Relational Deep Learning on Relational Databases
- Title(参考訳): Rel-MOSS:関係データベースにおける非バランスな関係深層学習を目指して
- Authors: Jun Yin, Peng Huo, Bangguo Zhu, Hao Yan, Senzhang Wang, Shirui Pan, Chengqi Zhang,
- Abstract要約: リレーショナルディープラーニング(RDL)は、リレーショナルデータベース(RDB)を異種エンティティグラフとして構成するために提案される。
既存のRDL手法は、RDBにおける関係データの不均衡問題を無視し、少数民族を過小評価するリスクを負う。
本研究では,RDBエンティティ分類におけるクラス不均衡問題を初めて検討し,関係中心型マイノリティー合成オーバーサンプリングGNNを設計する。
- 参考スコア(独自算出の注目度): 66.24230877709756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent advances, to enable a fully data-driven learning paradigm on relational databases (RDB), relational deep learning (RDL) is proposed to structure the RDB as a heterogeneous entity graph and adopt the graph neural network (GNN) as the predictive model. However, existing RDL methods neglect the imbalance problem of relational data in RDBs and risk under-representing the minority entities, leading to an unusable model in practice. In this work, we investigate, for the first time, class imbalance problem in RDB entity classification and design the relation-centric minority synthetic over-sampling GNN (Rel-MOSS), in order to fill a critical void in the current literature. Specifically, to mitigate the issue of minority-related information being submerged by majority counterparts, we design the relation-wise gating controller to modulate neighborhood messages from each individual relation type. Based on the relational-gated representations, we further propose the relation-guided minority synthesizer for over-sampling, which integrates the entity relational signatures to maintain relational consistency. Extensive experiments on 12 entity classification datasets provide compelling evidence for the superiority of Rel-MOSS, yielding an average improvement of up to 2.46% and 4.00% in terms of Balanced Accuracy and G-Mean, compared with SOTA RDL methods and classic methods for handling class imbalance.
- Abstract(参考訳): 近年、リレーショナルデータベース(RDB)における完全なデータ駆動学習パラダイムを実現するために、リレーショナルディープラーニング(RDL)が提案され、RDBを異種エンティティグラフとして構成し、グラフニューラルネットワーク(GNN)を予測モデルとして採用している。
しかし、既存のRDL法は、RDBにおけるリレーショナルデータの不均衡問題を無視し、マイノリティエンティティを過小評価するリスクを負っており、実際には利用できないモデルに繋がる。
本研究では,RDBエンティティ分類におけるクラス不均衡問題を初めて検討し,Rel-MOSS(Rel-MOSS)という関係中心型マイノリティ合成オーバーサンプリングGNN(Rel-MOSS)を設計し,現状の文献における重要な空白を埋める。
具体的には、多数派によって沈められているマイノリティー関連情報の問題を緩和するために、各関係タイプから近隣メッセージを変調する関係ワイドゲーティングコントローラを設計する。
さらに、リレーショナルゲート表現に基づいて、リレーショナル整合性を維持するためにエンティティリレーショナルシグネチャを統合するオーバーサンプリングのためのリレーショナル誘導マイノリティシンセサイザーを提案する。
12のエンティティ分類データセットに対する大規模な実験は、クラス不均衡を扱うSOTA RDL法や古典的な方法と比較して、平均2.46%と4.00%の改善をもたらすRel-MOSSの優位性を示す説得力のある証拠となる。
関連論文リスト
- Relational Database Distillation: From Structured Tables to Condensed Graph Data [48.347717300340435]
グラフベースモデルに必要な電力を維持しつつ,大規模RDBをコンパクトなヘテロジニアスグラフに蒸留することを目的としている。
さらに、擬似ラベルを用いてカーネルリッジ回帰誘導目標を設計し、蒸留グラフの品質特性を創出する。
論文 参考訳(メタデータ) (2025-10-08T13:05:31Z) - Task-Agnostic Contrastive Pretraining for Relational Deep Learning [0.0]
本稿では,データベース全体の表現学習を可能にするRDLのためのタスク依存型コントラスト事前学習手法を提案する。
モジュール型RDLアーキテクチャにより,各事前学習手法を実装した。
予備的な結果から、事前訓練したモデルの微調整は、スクラッチからトレーニングを成功させることが示された。
論文 参考訳(メタデータ) (2025-06-27T13:18:13Z) - Relational Deep Learning: Challenges, Foundations and Next-Generation Architectures [50.46688111973999]
グラフ機械学習は、任意のグラフ構造化データで学習するモデルの能力を大幅に向上させた。
従来の工学的特徴を伴わない'関係エンティティグラフ'のエンドツーエンド表現を可能にする新しい青写真を提案する。
本稿では、大規模マルチテーブル統合や、時間力学と異種データのモデリングの複雑さなど、重要な課題について論じる。
論文 参考訳(メタデータ) (2025-06-19T23:51:38Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - Diversity Over Quantity: A Lesson From Few Shot Relation Classification [62.66895901654023]
多様な関係の集合に対するトレーニングは、モデルが目に見えない関係を一般化する能力を大幅に向上させることを示す。
我々は、既存のデータセットよりも桁違いに多くの関係型を組み込んだ新しいFSRCベンチマークであるREBEL-FSを紹介する。
論文 参考訳(メタデータ) (2024-12-06T21:41:01Z) - Semi-Supervised Reward Modeling via Iterative Self-Training [52.48668920483908]
本稿では,未ラベルデータを用いたRMトレーニングを強化する手法であるSemi-Supervised Reward Modeling (SSRM)を提案する。
SSRMは、追加のラベリングコストを発生させることなく、報酬モデルを大幅に改善することを示した。
全体として、SSRMは、人間が注釈付けした大量のデータへの依存を大幅に減らし、効果的な報酬モデルのトレーニングに要する全体的なコストと時間を削減する。
論文 参考訳(メタデータ) (2024-09-10T22:57:58Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。