論文の概要: Counterfactual Generative Networks
- arxiv url: http://arxiv.org/abs/2101.06046v1
- Date: Fri, 15 Jan 2021 10:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 11:25:01.999724
- Title: Counterfactual Generative Networks
- Title(参考訳): 反事実生成ネットワーク
- Authors: Axel Sauer, Andreas Geiger
- Abstract要約: 画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
- 参考スコア(独自算出の注目度): 59.080843365828756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are prone to learning shortcuts -- they often model simple
correlations, ignoring more complex ones that potentially generalize better.
Prior works on image classification show that instead of learning a connection
to object shape, deep classifiers tend to exploit spurious correlations with
low-level texture or the background for solving the classification task. In
this work, we take a step towards more robust and interpretable classifiers
that explicitly expose the task's causal structure. Building on current
advances in deep generative modeling, we propose to decompose the image
generation process into independent causal mechanisms that we train without
direct supervision. By exploiting appropriate inductive biases, these
mechanisms disentangle object shape, object texture, and background; hence,
they allow for generating counterfactual images. We demonstrate the ability of
our model to generate such images on MNIST and ImageNet. Further, we show that
the counterfactual images can improve out-of-distribution robustness with a
marginal drop in performance on the original classification task, despite being
synthetic. Lastly, our generative model can be trained efficiently on a single
GPU, exploiting common pre-trained models as inductive biases.
- Abstract(参考訳): ニューラルネットワークはショートカットを学ぶ傾向がある -- 彼らはしばしば単純な相関をモデル化し、より良い一般化をもたらすより複雑なものを無視している。
画像分類に関する以前の研究は、物体形状への接続を学ぶ代わりに、深層分類器は低レベルのテクスチャや背景との急激な相関を利用して分類タスクを解く傾向があることを示している。
本研究では,タスクの因果構造を明確に明らかにする,より堅牢で解釈可能な分類器への一歩を踏み出した。
深層生成モデリングの最近の進歩を踏まえて,画像生成プロセスを直接監視することなく学習する独立した因果機構に分解する手法を提案する。
適切な帰納バイアスを利用することで、これらのメカニズムは物体の形状、物体のテクスチャ、背景を歪めてしまう。
MNIST と ImageNet でこのような画像を生成する能力を示す。
また,偽画像は,合成されているにもかかわらず,元の分類タスクにおける性能をわずかに低下させることなく,分散的ロバスト性を向上させることができることを示した。
最後に、私たちの生成モデルは単一のgpu上で効率的にトレーニングでき、一般的な事前学習されたモデルを帰納バイアスとして活用できます。
関連論文リスト
- Efficient Visualization of Neural Networks with Generative Models and Adversarial Perturbations [0.0]
本稿では,既存の手法を改良した生成ネットワークによるディープビジュアライゼーション手法を提案する。
我々のモデルは、使用するネットワーク数を減らし、ジェネレータと識別器のみを必要とすることにより、アーキテクチャを単純化する。
我々のモデルは、事前の訓練知識を少なくし、差別者がガイドとして機能する非敵的訓練プロセスを使用する。
論文 参考訳(メタデータ) (2024-09-20T14:59:25Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Active Generation for Image Classification [45.93535669217115]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Diffusion Models Beat GANs on Image Classification [37.70821298392606]
拡散モデルは、画像生成、復調、塗装、超解像、操作などの最先端の手法として注目されている。
本稿では,これらの埋め込みは識別情報を含むため,ノイズ予測タスクを超えて有用であり,分類にも活用できることを示す。
注意深い特徴選択とプーリングにより、拡散モデルは、分類タスクにおいて同等な生成的識別的手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-17T17:59:40Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Understanding invariance via feedforward inversion of discriminatively
trained classifiers [30.23199531528357]
過去の研究では、出力ログに余計な視覚的詳細が残っていることが判明した。
極めて高い忠実度を再現するフィードフォワードインバージョンモデルを開発する。
私たちのアプローチはBigGANをベースにしており、1ホットクラスのラベルの代わりにロジットのコンディショニングを行います。
論文 参考訳(メタデータ) (2021-03-15T17:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。