論文の概要: Graph Unlearning
- arxiv url: http://arxiv.org/abs/2103.14991v1
- Date: Sat, 27 Mar 2021 20:38:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:29:32.668437
- Title: Graph Unlearning
- Title(参考訳): グラフ学習
- Authors: Min Chen and Zhikun Zhang and Tianhao Wang and Michael Backes and
Mathias Humbert and Yang Zhang
- Abstract要約: グラフデータに適した新しい機械学習手法であるGraphEraserを提案する。
提案手法は2つのグラフ分割アルゴリズムと学習に基づくアグリゲーション法である。
- 参考スコア(独自算出の注目度): 31.61594070241969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The right to be forgotten states that a data subject has the right to erase
their data from an entity storing it. In the context of machine learning (ML),
it requires the ML model provider to remove the data subject's data from the
training set used to build the ML model, a process known as \textit{machine
unlearning}. While straightforward and legitimate, retraining the ML model from
scratch upon receiving unlearning requests incurs high computational overhead
when the training set is large. To address this issue, a number of approximate
algorithms have been proposed in the domain of image and text data, among which
SISA is the state-of-the-art solution. It randomly partitions the training set
into multiple shards and trains a constituent model for each shard. However,
directly applying SISA to the graph data can severely damage the graph
structural information, and thereby the resulting ML model utility.
In this paper, we propose GraphEraser, a novel machine unlearning method
tailored to graph data. Its contributions include two novel graph partition
algorithms, and a learning-based aggregation method. We conduct extensive
experiments on five real-world datasets to illustrate the unlearning efficiency
and model utility of GraphEraser. We observe that GraphEraser achieves
2.06$\times$ (small dataset) to 35.94$\times$ (large dataset) unlearning time
improvement compared to retraining from scratch. On the other hand, GraphEraser
achieves up to $62.5\%$ higher F1 score than that of random partitioning. In
addition, our proposed learning-based aggregation method achieves up to $112\%$
higher F1 score than that of the majority vote aggregation.
- Abstract(参考訳): 忘れられる権利は、データ対象がそれを格納しているエンティティからデータを消去する権利を有することを述べる。
機械学習(ML)のコンテキストにおいて、MLモデルプロバイダは、MLモデルを構築するために使用されるトレーニングセットから、データ対象のデータを削除する必要がある。
単純かつ合法ではあるが、未学習の要求を受け取ると、スクラッチからMLモデルをトレーニングすることは、トレーニングセットが大きい場合に高い計算オーバーヘッドを引き起こす。
この問題に対処するために、画像とテキストデータの領域において、SISAが最先端のソリューションである多くの近似アルゴリズムが提案されている。
トレーニングセットを複数のシャードにランダムに分割し、各シャードの構成モデルをトレーニングする。
しかし、グラフデータに直接SISAを適用すると、グラフ構造情報が著しく損なわれ、結果として得られるMLモデルの有用性が損なわれる。
本稿では,グラフデータに適した新しい機械学習手法であるGraphEraserを提案する。
その貢献には、2つの新しいグラフ分割アルゴリズムと学習に基づく集約方法が含まれる。
grapheraserの学習効率とモデルの有用性を説明するため、5つの実世界のデータセットを広範囲に実験した。
grapheraserは、スクラッチから再トレーニングするよりも、2.06$\times$ (small dataset)から35.94$\times$ (large dataset)アンラーニング時間の改善を達成している。
一方、GraphEraserはランダムパーティショニングよりも最大62.5\%高いF1スコアを達成する。
さらに,本提案手法は,多数決の集計結果よりも最大112\%のF1スコアを達成する。
関連論文リスト
- Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [90.98855064914379]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Learnable Graph Matching: A Practical Paradigm for Data Association [74.28753343714858]
これらの問題に対処するための一般的な学習可能なグラフマッチング法を提案する。
提案手法は,複数のMOTデータセット上での最先端性能を実現する。
画像マッチングでは,一般的な屋内データセットであるScanNetで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-03-27T17:39:00Z) - FedGraph: an Aggregation Method from Graph Perspective [3.1236343261481165]
フェデレートラーニング(FL)は、各クライアントのプライバシを保ちながら、モデルを協調的にトレーニングする効果的なソリューションとなっている。
FedAvgは標準アグリゲーションアルゴリズムであり、各クライアントのデータセットサイズの割合をアグリゲーションウェイトとする。
本稿では,局所モデルのトレーニング条件に応じてアグリゲーション重みを適応的に調整できるFedGraphを提案する。
論文 参考訳(メタデータ) (2022-10-06T07:48:50Z) - Condensing Graphs via One-Step Gradient Matching [50.07587238142548]
ネットワーク重みを訓練せずに1ステップのみの勾配マッチングを行う1ステップ勾配マッチング方式を提案する。
我々の理論的分析は、この戦略が実際のグラフの分類損失を減少させる合成グラフを生成することができることを示している。
特に、元のパフォーマンスの最大98%を近似しながら、データセットサイズを90%削減することが可能です。
論文 参考訳(メタデータ) (2022-06-15T18:20:01Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z) - NodeNet: A Graph Regularised Neural Network for Node Classification [0.0]
ほとんどのAI/ML技術は、データポイント間のリンクを排除している。
近年,グラフベースのAI/ML技術への関心が高まっている。
引用グラフのノード分類タスクを解決するために,NGL - NodeNet を用いたモデルを提案する。
論文 参考訳(メタデータ) (2020-06-16T09:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。