論文の概要: Towards Understanding Link Predictor Generalizability Under Distribution Shifts
- arxiv url: http://arxiv.org/abs/2406.08788v2
- Date: Tue, 11 Mar 2025 19:49:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 21:17:52.317681
- Title: Towards Understanding Link Predictor Generalizability Under Distribution Shifts
- Title(参考訳): 配電系統におけるリンク予測器の一般化可能性の理解に向けて
- Authors: Jay Revolinsky, Harry Shomer, Jiliang Tang,
- Abstract要約: LPShiftと呼ばれる新しい分割戦略を導入し、制御された分散シフトを誘導する。
我々は,元のデータセット分割の16 LPShift 変種に対する SOTA LP モデルの実証評価により,LPShift の効果を検証する。
- 参考スコア(独自算出の注目度): 34.58496513149175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art link prediction (LP) models demonstrate impressive benchmark results. However, popular benchmark datasets often assume that training, validation, and testing samples are representative of the overall dataset distribution. In real-world situations, this assumption is often incorrect; uncontrolled factors lead new dataset samples to come from a different distribution than training samples. Additionally, the majority of recent work with graph dataset shift focuses on node- and graph-level tasks, largely ignoring link-level tasks. To bridge this gap, we introduce a novel splitting strategy, known as LPShift, which utilizes structural properties to induce a controlled distribution shift. We verify LPShift's effect through empirical evaluation of SOTA LP models on 16 LPShift variants of original dataset splits, with results indicating drastic changes to model performance. Additional experiments demonstrate graph structure has a strong influence on the success of current generalization methods. Source Code Available Here: https://github.com/revolins/LPShift
- Abstract(参考訳): State-of-the-art Link Prediction (LP)モデルは、素晴らしいベンチマーク結果を示している。
しかしながら、一般的なベンチマークデータセットは、トレーニング、検証、テストサンプルがデータセット全体の分布を代表するものであると仮定することが多い。
実世界の状況では、この仮定はしばしば間違っており、制御されていない要因は、新しいデータセットサンプルをトレーニングサンプルとは異なる分布から導き出す。
さらに、グラフデータセットの最近の作業の大部分は、主にリンクレベルのタスクを無視したノードレベルのタスクとグラフレベルのタスクに重点を置いている。
このギャップを埋めるために、構造特性を利用して制御分布シフトを誘導するLPShiftと呼ばれる新しい分割戦略を導入する。
我々は,オリジナルのデータセット分割の16のLPShift変種に対するSOTA LPモデルの実験的評価によりLPShiftの効果を検証し,モデル性能に劇的な変化を示す。
さらなる実験は、グラフ構造が現在の一般化法の成功に強い影響を与えることを示した。
ソースコード:https://github.com/revolins/LPShift
関連論文リスト
- FOOGD: Federated Collaboration for Both Out-of-distribution Generalization and Detection [24.969694113366216]
Federated Learning(FL)は、クライアントモデルと連携してグローバルな知識を捉える、有望な機械学習パラダイムである。
実世界のシナリオにFLモデルをデプロイすることは、分布内データと予期せぬ分布外データの共存のため、依然として信頼性が低い。
本稿では,各クライアントの確率密度を推定し,信頼性の高いグローバル分布を求めるFOOGDを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:31Z) - First-Order Manifold Data Augmentation for Regression Learning [4.910937238451485]
我々は、新しいデータ駆動型ドメイン非依存データ拡張法であるFOMAを紹介する。
分布内一般化と分布外ベンチマークに基づいてFOMAを評価し,いくつかのニューラルアーキテクチャの一般化を改善することを示す。
論文 参考訳(メタデータ) (2024-06-16T12:35:05Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Align Your Prompts: Test-Time Prompting with Distribution Alignment for
Zero-Shot Generalization [64.62570402941387]
テスト領域のギャップを埋めるために、機能分散シフトを最小限にして、テスト時にマルチモーダルプロンプトを適用するために、単一のテストサンプルを使用します。
提案手法は,既存のプロンプト学習技術以上のゼロショットトップ1精度を向上し,ベースラインのMaPLeよりも3.08%向上した。
論文 参考訳(メタデータ) (2023-11-02T17:59:32Z) - Adaptive Test-Time Personalization for Federated Learning [51.25437606915392]
テスト時パーソナライズド・フェデレーション・ラーニング(TTPFL)と呼ばれる新しい設定を導入する。
TTPFLでは、クライアントはテスト期間中にラベル付きデータに頼ることなく、教師なしの方法でグローバルモデルをローカルに適応する。
本稿では,ソースドメイン間の分散シフトから,モデル内の各モジュールの適応率を適応的に学習する ATP という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T20:42:47Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Explanation Shift: How Did the Distribution Shift Impact the Model? [23.403838118256907]
本研究では,分布変化による説明特性の変化について検討した。
我々は、合成例と実世界のデータセットを用いて、異なる種類の分布シフトを分析する。
我々は、実験を再現するために使用されるコードと同様に、オープンソースのPythonパッケージでメソッドをリリースします。
論文 参考訳(メタデータ) (2023-03-14T17:13:01Z) - Wild-Time: A Benchmark of in-the-Wild Distribution Shift over Time [69.77704012415845]
時間的シフトは、現実世界にデプロイされた機械学習モデルのパフォーマンスを著しく低下させる可能性がある。
ドメイン一般化、連続学習、自己教師付き学習、アンサンブル学習の手法を含む13の先行手法をベンチマークする。
いずれの評価方略も,分布外データから分布外データへの平均的な性能低下を観察する。
論文 参考訳(メタデータ) (2022-11-25T17:07:53Z) - Unleashing the Power of Graph Data Augmentation on Covariate
Distribution Shift [50.98086766507025]
本稿では,AIA(Adversarial Invariant Augmentation)という,シンプルで効率の良いデータ拡張戦略を提案する。
AIAは、拡張プロセス中に元の安定した特徴を同時に保存しながら、新しい環境をエクスポーレーションし、生成することを目的としている。
論文 参考訳(メタデータ) (2022-11-05T07:55:55Z) - AnoShift: A Distribution Shift Benchmark for Unsupervised Anomaly
Detection [7.829710051617368]
本稿では,ネットワーク侵入検知のためのトラフィックデータセットである Kyoto-2006+ 上に構築された,時間とともに変化するデータを含む教師なし異常検出ベンチマークを提案する。
まず, 基本機能解析, t-SNE, および最適輸送手法を用いて, 年々の分布距離を計測する。
従来のアプローチからディープラーニングまで,さまざまなモデルでパフォーマンス劣化を検証する。
論文 参考訳(メタデータ) (2022-06-30T17:59:22Z) - Deep learning model solves change point detection for multiple change
types [69.77452691994712]
変更点検出は、データ分散の急激な障害をキャッチすることを目的としている。
本稿では,マルチディストリビューションシナリオにおけるアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-15T09:44:21Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Characterizing Generalization under Out-Of-Distribution Shifts in Deep
Metric Learning [32.51394862932118]
本稿では,DMLにおける分布外シフトの下での一般化を特徴付けるために,ooDMLベンチマークを提案する。
ooDMLは、より困難で多様な列車間分散シフトにおいて、一般化性能を調査するために設計されている。
一般化は難易度に常に低下する傾向にあるが, 分散シフトが増加するにつれて, 性能が向上する手法もある。
論文 参考訳(メタデータ) (2021-07-20T15:26:09Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - I-SPEC: An End-to-End Framework for Learning Transportable, Shift-Stable
Models [6.802401545890963]
開発とデプロイメントの間の環境の変化により、古典的な教師あり学習は、新たなターゲット分布への一般化に失敗するモデルを生成する。
我々は、データを用いて部分祖先グラフ(PAG)を学習することで、この欠点に対処するエンドツーエンドフレームワークであるI-SPECを提案する。
我々は、I-SPECを死亡予測問題に適用し、完全な因果DAGの事前知識を必要とせずに、シフトに頑健なモデルを学ぶことができることを示す。
論文 参考訳(メタデータ) (2020-02-20T18:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。