論文の概要: Network Inversion for Generating Confidently Classified Counterfeits
- arxiv url: http://arxiv.org/abs/2503.20187v1
- Date: Wed, 26 Mar 2025 03:26:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:21:34.451171
- Title: Network Inversion for Generating Confidently Classified Counterfeits
- Title(参考訳): 信頼度の高い偽造物生成のためのネットワークインバージョン
- Authors: Pirzada Suhail, Amit Sethi,
- Abstract要約: ネットワーク・インバージョン・テクニックを拡張して、信頼度の高い正偽合成サンプルを生成する。
本研究では, ジェネレータのコンディショニング機構をソフトベクトルコンディショニングからワンホットベクトルコンディショニングに変更することで実現した。
これにより、ジェネレータは、可塑性かつ確実な分類の両方のサンプルを生成できる。
- 参考スコア(独自算出の注目度): 3.004632712148892
- License:
- Abstract: In machine learning, especially with vision classifiers, generating inputs that are confidently classified by the model is essential for understanding its decision boundaries and behavior. However, creating such samples that are confidently classified yet distinct from the training data distribution is a challenge. Traditional methods often modify existing inputs, but they don't always ensure confident classification. In this work, we extend network inversion techniques to generate Confidently Classified Counterfeits-synthetic samples that are confidently classified by the model despite being significantly different from the training data. We achieve this by modifying the generator's conditioning mechanism from soft vector conditioning to one-hot vector conditioning and applying Kullback-Leibler divergence (KLD) between the one-hot vectors and the classifier's output distribution. This encourages the generator to produce samples that are both plausible and confidently classified. Generating Confidently Classified Counterfeits is crucial for ensuring the safety and reliability of machine learning systems, particularly in safety-critical applications where models must exhibit confidence only on data within the training distribution. By generating such counterfeits, we challenge the assumption that high-confidence predictions are always indicative of in-distribution data, providing deeper insights into the model's limitations and decision-making process.
- Abstract(参考訳): 機械学習、特に視覚分類器では、モデルによって確実に分類された入力を生成することは、その決定境界と振る舞いを理解するのに不可欠である。
しかし、トレーニングデータ配信とは確実に区別されるが、そのようなサンプルを作成することは困難である。
従来のメソッドは、しばしば既存の入力を変更するが、常に確実な分類を保証するとは限らない。
本研究では、トレーニングデータと大きく異なるにもかかわらず、モデルによって確実に分類された信頼度の高い正反対合成サンプルを生成するために、ネットワークインバージョン手法を拡張した。
本研究では, 生成元の条件付け機構をソフトベクトル条件付けからワンホットベクトル条件付けに変更し, 1ホットベクトルと分類器の出力分布との間にクルバック・リーブラー分岐(KLD)を適用した。
これにより、ジェネレータは、可塑性かつ確実な分類の両方のサンプルを生成できる。
信頼性の高い分類された偽造物の生成は、特にトレーニングディストリビューション内のデータにのみ信頼を示さなければならない安全クリティカルなアプリケーションにおいて、機械学習システムの安全性と信頼性を確保するために不可欠である。
このような偽造を発生させることで、高信頼の予測が常に流通データを示すという仮定に挑戦し、モデルの制限と意思決定プロセスに関する深い洞察を提供する。
関連論文リスト
- Mixing Classifiers to Alleviate the Accuracy-Robustness Trade-Off [8.169499497403102]
本稿では、標準ニューラルネットワークとロバストニューラルネットワークの出力確率を混合した理論的動機付け型定式化を提案する。
数値実験により,混合分類器は精度・損耗トレードオフを著しく改善することを確認した。
論文 参考訳(メタデータ) (2023-11-26T02:25:30Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Autoencoder Attractors for Uncertainty Estimation [13.618797548020462]
本稿では,オートエンコーダモデルに基づく不確実性推定手法を提案する。
提案手法は,車室内における占有者分類の産業的応用だけでなく,いくつかのデータセットの組み合わせについても検討した。
論文 参考訳(メタデータ) (2022-04-01T12:10:06Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Self-supervised GANs with Label Augmentation [43.78253518292111]
本稿では,ラベルの強化,すなわち,自己教師付き擬似ラベルによるGANラベル(実物または偽物)の増大を図った,新たな自己教師型GANフレームワークを提案する。
提案手法は,生成モデルと表現学習の両面において,競争ベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-06-16T07:58:00Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Uncertainty-Aware Deep Classifiers using Generative Models [7.486679152591502]
ディープニューラルネットワークは、しばしば、彼らが知らないことについて無知であり、インフォームド予測を行うときに過信する。
最近のアプローチでは、クラス境界に近いデータサンプルやトレーニング分布の外側から、モデルに高い不確実性を出力するようにトレーニングすることで、不確実性を直接定量化している。
本研究では,アレータ性およびてんかん性不確実性の両方を表現し,決定境界と分布外領域を識別できる新しいニューラルネットワークモデルを構築した。
論文 参考訳(メタデータ) (2020-06-07T15:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。