論文の概要: Unlearning Algorithmic Biases over Graphs
- arxiv url: http://arxiv.org/abs/2505.14945v1
- Date: Tue, 20 May 2025 22:12:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.773171
- Title: Unlearning Algorithmic Biases over Graphs
- Title(参考訳): グラフ上の非学習アルゴリズムバイアス
- Authors: O. Deniz Kose, Gonzalo Mateos, Yanning Shen,
- Abstract要約: グラフアンラーニングを新たに検討し、バイアス軽減ツールとして活用しています。
我々は、モデル重みに関するシングルステップのニュートン更新を通じて、証明可能なバイアス軽減を提供する、トレーニング不要な未学習手順を開発する。
そこで我々は,厳密なバイアス分析によって得られるノードやエッジに対する基本的選択機構を備えた構造的アンラーニング手法を設計する。
- 参考スコア(独自算出の注目度): 22.373465731963915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing enforcement of the right to be forgotten regulations has propelled recent advances in certified (graph) unlearning strategies to comply with data removal requests from deployed machine learning (ML) models. Motivated by the well-documented bias amplification predicament inherent to graph data, here we take a fresh look at graph unlearning and leverage it as a bias mitigation tool. Given a pre-trained graph ML model, we develop a training-free unlearning procedure that offers certifiable bias mitigation via a single-step Newton update on the model weights. This way, we contribute a computationally lightweight alternative to the prevalent training- and optimization-based fairness enhancement approaches, with quantifiable performance guarantees. We first develop a novel fairness-aware nodal feature unlearning strategy along with refined certified unlearning bounds for this setting, whose impact extends beyond the realm of graph unlearning. We then design structural unlearning methods endowed with principled selection mechanisms over nodes and edges informed by rigorous bias analyses. Unlearning these judiciously selected elements can mitigate algorithmic biases with minimal impact on downstream utility (e.g., node classification accuracy). Experimental results over real networks corroborate the bias mitigation efficacy of our unlearning strategies, and delineate markedly favorable utility-complexity trade-offs relative to retraining from scratch using augmented graph data obtained via removals.
- Abstract(参考訳): 忘れられる権利の強制力の増大は、デプロイされた機械学習(ML)モデルからのデータ削除要求に準拠する認定(グラフ)アンラーニング戦略の最近の進歩を推進している。
グラフデータ固有の、十分に文書化されたバイアス増幅予測に動機づけられた、ここでは、グラフアンラーニングを新たに見て、バイアス軽減ツールとして活用する。
事前学習したグラフMLモデルを用いて、モデル重みのシングルステップニュートン更新による認証バイアス軽減を提供する訓練不要な未学習手順を開発する。
このようにして、計算量的に軽量なトレーニングと最適化に基づくフェアネス向上アプローチの代替として、定量的な性能保証を提供する。
本研究は,まず,この設定に対する検証済みの未学習境界を改良し,その影響をグラフ未学習の領域を超えて展開する,新しいフェアネス・アウェア・ノダル・アンラーニング・ストラテジーを開発する。
そこで我々は,厳密なバイアス分析によって得られるノードやエッジに対する基本的選択機構を備えた構造的アンラーニング手法を設計する。
これらの司法的選択された要素をアンラーニングすることで、下流のユーティリティ(例えばノード分類精度)に最小限の影響でアルゴリズムバイアスを軽減することができる。
実ネットワーク上の実験結果は,未学習戦略のバイアス軽減効果を裏付けるものであり,除去によって得られたグラフデータを用いて,スクラッチからリトレーニングする際の実用・複雑さのトレードオフを著しく緩和する。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Erase then Rectify: A Training-Free Parameter Editing Approach for Cost-Effective Graph Unlearning [17.85404473268992]
グラフアンラーニングは、訓練されたグラフニューラルネットワーク(GNN)からノード、エッジ、属性の影響を排除することを目的としている。
既存のグラフアンラーニング技術は、しばしば残りのデータに対する追加のトレーニングを必要とし、かなりの計算コストをもたらす。
本稿では,2段階の学習自由アプローチであるETR(Erase then Rectify)を提案する。
論文 参考訳(メタデータ) (2024-09-25T07:20:59Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Model Sparsity Can Simplify Machine Unlearning [33.18951938708467]
最近のデータ規制要件に応えて、マシン・アンラーニング(MU)が重要なプロセスとして登場した。
本研究は,ウェイトプルーニングによるモデルスペーシフィケーションという,新しいモデルベース視点を紹介する。
理論と実践の両方において、モデルスパーシティは、近似アンラーナーのマルチ基準アンラーニング性能を高めることができることを示す。
論文 参考訳(メタデータ) (2023-04-11T02:12:02Z) - Near-optimal Offline Reinforcement Learning with Linear Representation:
Leveraging Variance Information with Pessimism [65.46524775457928]
オフライン強化学習は、オフライン/歴史的データを活用して、シーケンシャルな意思決定戦略を最適化しようとしている。
線形モデル表現を用いたオフライン強化学習の統計的限界について検討する。
論文 参考訳(メタデータ) (2022-03-11T09:00:12Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。