論文の概要: Towards Understanding Link Predictor Generalizability Under Distribution Shifts
- arxiv url: http://arxiv.org/abs/2406.08788v2
- Date: Tue, 11 Mar 2025 19:49:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:37:15.644490
- Title: Towards Understanding Link Predictor Generalizability Under Distribution Shifts
- Title(参考訳): 配電系統におけるリンク予測器の一般化可能性の理解に向けて
- Authors: Jay Revolinsky, Harry Shomer, Jiliang Tang,
- Abstract要約: LPShiftと呼ばれる新しい分割戦略を導入し、制御された分散シフトを誘導する。
我々は,元のデータセット分割の16 LPShift 変種に対する SOTA LP モデルの実証評価により,LPShift の効果を検証する。
- 参考スコア(独自算出の注目度): 34.58496513149175
- License:
- Abstract: State-of-the-art link prediction (LP) models demonstrate impressive benchmark results. However, popular benchmark datasets often assume that training, validation, and testing samples are representative of the overall dataset distribution. In real-world situations, this assumption is often incorrect; uncontrolled factors lead new dataset samples to come from a different distribution than training samples. Additionally, the majority of recent work with graph dataset shift focuses on node- and graph-level tasks, largely ignoring link-level tasks. To bridge this gap, we introduce a novel splitting strategy, known as LPShift, which utilizes structural properties to induce a controlled distribution shift. We verify LPShift's effect through empirical evaluation of SOTA LP models on 16 LPShift variants of original dataset splits, with results indicating drastic changes to model performance. Additional experiments demonstrate graph structure has a strong influence on the success of current generalization methods. Source Code Available Here: https://github.com/revolins/LPShift
- Abstract(参考訳): State-of-the-art Link Prediction (LP)モデルは、素晴らしいベンチマーク結果を示している。
しかしながら、一般的なベンチマークデータセットは、トレーニング、検証、テストサンプルがデータセット全体の分布を代表するものであると仮定することが多い。
実世界の状況では、この仮定はしばしば間違っており、制御されていない要因は、新しいデータセットサンプルをトレーニングサンプルとは異なる分布から導き出す。
さらに、グラフデータセットの最近の作業の大部分は、主にリンクレベルのタスクを無視したノードレベルのタスクとグラフレベルのタスクに重点を置いている。
このギャップを埋めるために、構造特性を利用して制御分布シフトを誘導するLPShiftと呼ばれる新しい分割戦略を導入する。
我々は,オリジナルのデータセット分割の16のLPShift変種に対するSOTA LPモデルの実験的評価によりLPShiftの効果を検証し,モデル性能に劇的な変化を示す。
さらなる実験は、グラフ構造が現在の一般化法の成功に強い影響を与えることを示した。
ソースコード:https://github.com/revolins/LPShift
関連論文リスト
- FOOGD: Federated Collaboration for Both Out-of-distribution Generalization and Detection [24.969694113366216]
Federated Learning(FL)は、クライアントモデルと連携してグローバルな知識を捉える、有望な機械学習パラダイムである。
実世界のシナリオにFLモデルをデプロイすることは、分布内データと予期せぬ分布外データの共存のため、依然として信頼性が低い。
本稿では,各クライアントの確率密度を推定し,信頼性の高いグローバル分布を求めるFOOGDを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:31Z) - First-Order Manifold Data Augmentation for Regression Learning [4.910937238451485]
我々は、新しいデータ駆動型ドメイン非依存データ拡張法であるFOMAを紹介する。
分布内一般化と分布外ベンチマークに基づいてFOMAを評価し,いくつかのニューラルアーキテクチャの一般化を改善することを示す。
論文 参考訳(メタデータ) (2024-06-16T12:35:05Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Align Your Prompts: Test-Time Prompting with Distribution Alignment for
Zero-Shot Generalization [64.62570402941387]
テスト領域のギャップを埋めるために、機能分散シフトを最小限にして、テスト時にマルチモーダルプロンプトを適用するために、単一のテストサンプルを使用します。
提案手法は,既存のプロンプト学習技術以上のゼロショットトップ1精度を向上し,ベースラインのMaPLeよりも3.08%向上した。
論文 参考訳(メタデータ) (2023-11-02T17:59:32Z) - Wild-Time: A Benchmark of in-the-Wild Distribution Shift over Time [69.77704012415845]
時間的シフトは、現実世界にデプロイされた機械学習モデルのパフォーマンスを著しく低下させる可能性がある。
ドメイン一般化、連続学習、自己教師付き学習、アンサンブル学習の手法を含む13の先行手法をベンチマークする。
いずれの評価方略も,分布外データから分布外データへの平均的な性能低下を観察する。
論文 参考訳(メタデータ) (2022-11-25T17:07:53Z) - AnoShift: A Distribution Shift Benchmark for Unsupervised Anomaly
Detection [7.829710051617368]
本稿では,ネットワーク侵入検知のためのトラフィックデータセットである Kyoto-2006+ 上に構築された,時間とともに変化するデータを含む教師なし異常検出ベンチマークを提案する。
まず, 基本機能解析, t-SNE, および最適輸送手法を用いて, 年々の分布距離を計測する。
従来のアプローチからディープラーニングまで,さまざまなモデルでパフォーマンス劣化を検証する。
論文 参考訳(メタデータ) (2022-06-30T17:59:22Z) - Deep learning model solves change point detection for multiple change
types [69.77452691994712]
変更点検出は、データ分散の急激な障害をキャッチすることを目的としている。
本稿では,マルチディストリビューションシナリオにおけるアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-15T09:44:21Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Characterizing Generalization under Out-Of-Distribution Shifts in Deep
Metric Learning [32.51394862932118]
本稿では,DMLにおける分布外シフトの下での一般化を特徴付けるために,ooDMLベンチマークを提案する。
ooDMLは、より困難で多様な列車間分散シフトにおいて、一般化性能を調査するために設計されている。
一般化は難易度に常に低下する傾向にあるが, 分散シフトが増加するにつれて, 性能が向上する手法もある。
論文 参考訳(メタデータ) (2021-07-20T15:26:09Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - I-SPEC: An End-to-End Framework for Learning Transportable, Shift-Stable
Models [6.802401545890963]
開発とデプロイメントの間の環境の変化により、古典的な教師あり学習は、新たなターゲット分布への一般化に失敗するモデルを生成する。
我々は、データを用いて部分祖先グラフ(PAG)を学習することで、この欠点に対処するエンドツーエンドフレームワークであるI-SPECを提案する。
我々は、I-SPECを死亡予測問題に適用し、完全な因果DAGの事前知識を必要とせずに、シフトに頑健なモデルを学ぶことができることを示す。
論文 参考訳(メタデータ) (2020-02-20T18:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。