論文の概要: Patch Rebirth: Toward Fast and Transferable Model Inversion of Vision Transformers
- arxiv url: http://arxiv.org/abs/2509.23235v1
- Date: Sat, 27 Sep 2025 10:35:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.115604
- Title: Patch Rebirth: Toward Fast and Transferable Model Inversion of Vision Transformers
- Title(参考訳): パッチ再生:視覚変換器の高速かつ伝達可能なモデルインバージョンに向けて
- Authors: Seongsoo Heo, Dong-Wan Choi,
- Abstract要約: パッチ再生インバージョン(Patch Re birth Inversion, PRI)は、インバージョンプロセスにおいて最も重要なパッチを段階的に切り離す新しいアプローチである。
PRIは標準のDense Model Inversionよりも最大10倍高速なインバージョンを実現している。
- 参考スコア(独自算出の注目度): 6.7034293304862755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model inversion is a widely adopted technique in data-free learning that reconstructs synthetic inputs from a pretrained model through iterative optimization, without access to original training data. Unfortunately, its application to state-of-the-art Vision Transformers (ViTs) poses a major computational challenge, due to their expensive self-attention mechanisms. To address this, Sparse Model Inversion (SMI) was proposed to improve efficiency by pruning and discarding seemingly unimportant patches, which were even claimed to be obstacles to knowledge transfer. However, our empirical findings suggest the opposite: even randomly selected patches can eventually acquire transferable knowledge through continued inversion. This reveals that discarding any prematurely inverted patches is inefficient, as it suppresses the extraction of class-agnostic features essential for knowledge transfer, along with class-specific features. In this paper, we propose Patch Rebirth Inversion (PRI), a novel approach that incrementally detaches the most important patches during the inversion process to construct sparse synthetic images, while allowing the remaining patches to continue evolving for future selection. This progressive strategy not only improves efficiency, but also encourages initially less informative patches to gradually accumulate more class-relevant knowledge, a phenomenon we refer to as the Re-Birth effect, thereby effectively balancing class-agnostic and class-specific knowledge. Experimental results show that PRI achieves up to 10x faster inversion than standard Dense Model Inversion (DMI) and 2x faster than SMI, while consistently outperforming SMI in accuracy and matching the performance of DMI.
- Abstract(参考訳): モデルインバージョンは、事前訓練されたモデルからの合成入力を、元のトレーニングデータにアクセスすることなく反復的な最適化によって再構築する、データフリー学習において広く採用されているテクニックである。
残念なことに、最先端のビジョントランスフォーマー(ViT)への適用は、高価な自己認識機構のため、大きな計算上の課題となる。
これを解決するためにスパース・モデル・インバージョン(SMI)が提案され、知識伝達の障害であるとさえ主張されていた、一見重要でないパッチを刈り取り、破棄することで効率を向上した。
ランダムに選択されたパッチでさえ、最終的には継続的な逆転を通じて伝達可能な知識を取得することができる。
これは、知識伝達に不可欠なクラス非依存の特徴とクラス固有の特徴の抽出を抑えるため、早めに反転したパッチを捨てることは非効率であることを示している。
そこで本論文では,新たな手法であるPatch Re birth Inversion(PRI)を提案する。この手法は,インバージョンプロセスにおいて最も重要なパッチを段階的に切り離して,スパース合成画像を構築するとともに,残りのパッチを将来的な選択のために進化させる。
このプログレッシブ戦略は、効率を向上するだけでなく、最初は情報的パッチを減らして、徐々にクラス関連知識を蓄積させ、この現象をRe-Birth効果と呼び、クラス非依存とクラス固有の知識のバランスをとる。
実験の結果,PRIは標準Dense Model Inversion (DMI) よりも最大10倍高速で,SMIより2倍高速であり,SMIの精度とDMIの性能は一貫して優れていた。
関連論文リスト
- When recalling in-context, Transformers are not SSMs [17.2249234816671]
本稿では,現代の反復モデルの性能において,学習率の選択が重要な役割を担っていることを示す。
次に1層変圧器を検査し、その性能が劣っているにもかかわらず、トレーニングダイナミクスが驚くほど誘導ヘッドの形成に類似していることを明らかにする。
論文 参考訳(メタデータ) (2025-08-26T13:45:08Z) - ReMem: Mutual Information-Aware Fine-tuning of Pretrained Vision Transformers for Effective Knowledge Distillation [55.55242848676581]
事前訓練された視覚表現モデルからの知識蒸留は、小さなタスク固有の生産モデルを改善する効果的なアプローチを提供する。
しかし、そのような知識伝達の有効性は、大規模に事前訓練された強いモデルから蒸留する場合に著しく低下する。
相互情報と蒸留の有効性の関連性から,我々は微調整中に相互情報認識最適化を採用することを提案する。
論文 参考訳(メタデータ) (2025-06-29T00:25:23Z) - EKPC: Elastic Knowledge Preservation and Compensation for Class-Incremental Learning [53.88000987041739]
クラスインクリメンタルラーニング(Class-Incremental Learning, CIL)は、AIモデルを、時間とともに異なるクラスのシーケンシャルに到着したデータから継続的に学習可能にすることを目的としている。
本稿では, 重要度を考慮した重要度正規化 (IPR) と CIL のためのトレーニング可能なセマンティックドリフト補償 (TSDC) を統合したElastic Knowledge Preservation and Compensation (EKPC) 法を提案する。
論文 参考訳(メタデータ) (2025-06-14T05:19:58Z) - Transformer Meets Twicing: Harnessing Unattended Residual Information [2.1605931466490795]
トランスフォーマーベースのディープラーニングモデルは、多くの言語やビジョンタスクで最先端のパフォーマンスを達成した。
自己注意機構は複雑なデータパターンを扱えることが証明されているが、注意行列の表現能力はトランスフォーマー層間で著しく低下する。
本研究では,NLM平滑化の低パス動作を軽減するため,非パラメトリック回帰におけるカーネルツイシング手順を用いた新しいアテンション機構であるTwicing Attentionを提案する。
論文 参考訳(メタデータ) (2025-03-02T01:56:35Z) - BEExformer: A Fast Inferencing Binarized Transformer with Early Exits [2.7651063843287718]
BAT(Binarized Early Exit Transformer)とEE(Early Exit)を統合した最初の選択型学習ベーストランスであるBEExformerを紹介する。
BATは符号関数に微分可能な二階近似を用い、重みの符号と大きさの両方を捉える勾配を可能にする。
EEメカニズムは、ソフトルーティング損失推定を伴う中間変圧器ブロック間のエントロピーの分数還元に係わる。
これにより、FLOPを52.08%削減して推論を加速し、深層ネットワークに固有の「過剰な」問題を解くことで精度を2.89%向上させる。
論文 参考訳(メタデータ) (2024-12-06T17:58:14Z) - Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。