論文の概要: Machine Unlearning for Image-to-Image Generative Models
- arxiv url: http://arxiv.org/abs/2402.00351v2
- Date: Fri, 2 Feb 2024 03:27:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 11:52:11.827503
- Title: Machine Unlearning for Image-to-Image Generative Models
- Title(参考訳): 画像から画像への生成モデルのための機械学習
- Authors: Guihong Li, Hsiang Hsu, Chun-Fu Chen, Radu Marculescu
- Abstract要約: 本稿では、画像から画像への生成モデルのための機械学習のための統一フレームワークを提供する。
本稿では,厳密な理論解析を基盤とした計算効率のよいアルゴリズムを提案する。
ImageNet-1KとPlaces-365の2つの大規模データセットに関する実証研究は、我々のアルゴリズムが保持サンプルの可用性に依存していないことを示している。
- 参考スコア(独自算出の注目度): 18.952634119351465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning has emerged as a new paradigm to deliberately forget data
samples from a given model in order to adhere to stringent regulations.
However, existing machine unlearning methods have been primarily focused on
classification models, leaving the landscape of unlearning for generative
models relatively unexplored. This paper serves as a bridge, addressing the gap
by providing a unifying framework of machine unlearning for image-to-image
generative models. Within this framework, we propose a
computationally-efficient algorithm, underpinned by rigorous theoretical
analysis, that demonstrates negligible performance degradation on the retain
samples, while effectively removing the information from the forget samples.
Empirical studies on two large-scale datasets, ImageNet-1K and Places-365,
further show that our algorithm does not rely on the availability of the retain
samples, which further complies with data retention policy. To our best
knowledge, this work is the first that represents systemic, theoretical,
empirical explorations of machine unlearning specifically tailored for
image-to-image generative models. Our code is available at
https://github.com/jpmorganchase/l2l-generator-unlearning.
- Abstract(参考訳): マシンアンラーニングは、厳格な規則に従うために、与えられたモデルからデータサンプルを意図的に忘れる新しいパラダイムとして登場した。
しかし、既存の機械学習手法は主に分類モデルに焦点を合わせており、生成モデルに対する未学習の展望は比較的未開拓である。
本論文は,画像から画像への生成モデルのための機械学習の統一フレームワークを提供することにより,このギャップを解消するブリッジとして機能する。
そこで本研究では,厳密な理論解析を基盤とした計算効率の高いアルゴリズムを提案する。
ImageNet-1KとPlaces-365の2つの大規模データセットに関する実証研究は、我々のアルゴリズムが保持サンプルの可用性に依存していないことを示す。
私たちの知る限りでは、この研究は、画像から画像への生成モデルに特化した機械学習の体系的、理論的、経験的探索を表す最初のものである。
私たちのコードはhttps://github.com/jpmorganchase/l2l-generator-unlearningで利用可能です。
関連論文リスト
- Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - DreamTeacher: Pretraining Image Backbones with Deep Generative Models [103.62397699392346]
本稿では、下流画像バックボーンの事前学習に生成ネットワークを利用する自己教師付き特徴表現学習フレームワークを提案する。
1)画像Netなどの大規模ラベル付きデータセット上で,これらのバックボーンを事前学習する代替として,学習した生成特徴を対象画像のバックボーンに蒸留する。
私たちのDreamTeacherは、ボード全体で既存の自己指導型表現学習のアプローチを大幅に上回っていることを実証的に見出した。
論文 参考訳(メタデータ) (2023-07-14T17:17:17Z) - A Semi-Paired Approach For Label-to-Image Translation [6.888253564585197]
ラベル・ツー・イメージ翻訳のための半教師付き(半ペア)フレームワークを初めて紹介する。
半ペア画像設定では、小さなペアデータとより大きなペア画像とラベルのセットにアクセスすることができる。
本稿では,この共有ネットワークのためのトレーニングアルゴリズムを提案し,非表現型クラスに着目した希少なクラスサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-23T16:13:43Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Automated Cleanup of the ImageNet Dataset by Model Consensus,
Explainability and Confident Learning [0.0]
ImageNetは、ILSVRC12Netでトレーニングされた様々な畳み込みニューラルネットワーク(CNN)のバックボーンである。
本稿では,モデルのコンセンサス,説明可能性,自信のある学習に基づく自動アプリケーションについて述べる。
ImageNet-CleanはSqueezeNetおよびEfficientNet-B0モデルのモデルパフォーマンスを2-2.4%向上させる。
論文 参考訳(メタデータ) (2021-03-30T13:16:35Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Unsupervised machine learning via transfer learning and k-means
clustering to classify materials image data [0.0]
本稿では,画像分類のための高性能な教師なし機械学習システムの構築,利用,評価について述べる。
我々は、自然画像のImageNetデータセット上に事前訓練されたVGG16畳み込みニューラルネットワークを用いて、各マイクログラフの特徴表現を抽出する。
このアプローチは、99.4% pm 0.16%$の精度を実現し、結果として得られたモデルは、再トレーニングせずに、新しい画像の分類に使うことができる。
論文 参考訳(メタデータ) (2020-07-16T14:36:04Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。