論文の概要: ContinualFlow: Learning and Unlearning with Neural Flow Matching
- arxiv url: http://arxiv.org/abs/2506.18747v1
- Date: Mon, 23 Jun 2025 15:20:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:37.052381
- Title: ContinualFlow: Learning and Unlearning with Neural Flow Matching
- Title(参考訳): ContinualFlow: ニューラルフローマッチングによる学習と学習
- Authors: Lorenzo Simone, Davide Bacciu, Shuangge Ma,
- Abstract要約: 本研究では、フローマッチングによる生成モデルにおける目標未学習のための原則的フレームワークであるContinualFlowを紹介する。
本手法では,スクラッチからのトレーニングやサンプルへの直接アクセスを必要とせずに,エネルギーによる再加重損失を利用して,データ分布の不要領域をソフトに減算する。
- 参考スコア(独自算出の注目度): 13.628458744188325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce ContinualFlow, a principled framework for targeted unlearning in generative models via Flow Matching. Our method leverages an energy-based reweighting loss to softly subtract undesired regions of the data distribution without retraining from scratch or requiring direct access to the samples to be unlearned. Instead, it relies on energy-based proxies to guide the unlearning process. We prove that this induces gradients equivalent to Flow Matching toward a soft mass-subtracted target, and validate the framework through experiments on 2D and image domains, supported by interpretable visualizations and quantitative evaluations.
- Abstract(参考訳): 本研究では、フローマッチングによる生成モデルにおける目標未学習のための原則的フレームワークであるContinualFlowを紹介する。
本手法では,スクラッチからのトレーニングやサンプルへの直接アクセスを必要とせずに,エネルギーによる再加重損失を利用して,データ分布の不要領域をソフトに減算する。
代わりに、未学習プロセスを導くためにエネルギーベースのプロキシに依存している。
本研究では,ソフトマス抽出対象に向けてのフローマッチングと等価な勾配を導出し,解釈可能な可視化と定量的評価により,2次元および画像領域の実験を通じてフレームワークの有効性を検証した。
関連論文リスト
- Simulation-Free Training of Neural ODEs on Paired Data [20.36333430055869]
我々は,NODEのシミュレーションフリートレーニングにフローマッチングフレームワークを用いる。
ペアデータ間で直接フローマッチングを適用することは、しばしば不定義のフローにつながることを示す。
データペアの埋め込み空間にフローマッチングを適用するための簡単な拡張を提案する。
論文 参考訳(メタデータ) (2024-10-30T11:18:27Z) - Flow map matching with stochastic interpolants: A mathematical framework for consistency models [15.520853806024943]
フローマップマッチングは、基礎となる生成モデルの2時間フローマップを学ぶための原則化されたフレームワークである。
FMMは,高速サンプリングのための既存手法の幅広いクラスを統一し,拡張することを示す。
論文 参考訳(メタデータ) (2024-06-11T17:41:26Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - DistractFlow: Improving Optical Flow Estimation via Realistic
Distractions and Pseudo-Labeling [49.46842536813477]
本稿では,光フロー推定モデルのトレーニングのための新しいデータ拡張手法であるDistractFlowを提案する。
2つのフレームのうちの1つを、類似したドメインを描写したイントラクタイメージと組み合わせることで、自然の物体やシーンと相反する視覚的摂動を誘発することができる。
私たちのアプローチでは、追加のアノテーションを必要とせずに、利用可能なトレーニングペアの数を大幅に増やすことができます。
論文 参考訳(メタデータ) (2023-03-24T15:42:54Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。