論文の概要: Counterfactual Generation Under Confounding
- arxiv url: http://arxiv.org/abs/2210.12368v1
- Date: Sat, 22 Oct 2022 06:39:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:21:54.161807
- Title: Counterfactual Generation Under Confounding
- Title(参考訳): コンバウンディングによるファクトファクチュアルジェネレーション
- Authors: Abbavaram Gowtham Reddy, Saloni Dash, Amit Sharma, Vineeth N
Balasubramanian
- Abstract要約: 機械学習モデルは、トレーニングデータにおける観察または観測されていない共同創設者の影響下で、素早い相関関係を学習することができる。
本稿では,画像中の任意の属性の値を変更し,観測された属性の集合を与えられた新しい画像を生成することを学習する対実生成法を提案する。
本手法は, 計算効率が高く, 実装も簡単で, 生成因子の多さや変数の整合性にも有効である。
- 参考スコア(独自算出の注目度): 24.503075567519048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A machine learning model, under the influence of observed or unobserved
confounders in the training data, can learn spurious correlations and fail to
generalize when deployed. For image classifiers, augmenting a training dataset
using counterfactual examples has been empirically shown to break spurious
correlations. However, the counterfactual generation task itself becomes more
difficult as the level of confounding increases. Existing methods for
counterfactual generation under confounding consider a fixed set of
interventions (e.g., texture, rotation) and are not flexible enough to capture
diverse data-generating processes. Given a causal generative process, we
formally characterize the adverse effects of confounding on any downstream
tasks and show that the correlation between generative factors (attributes) can
be used to quantitatively measure confounding between generative factors. To
minimize such correlation, we propose a counterfactual generation method that
learns to modify the value of any attribute in an image and generate new images
given a set of observed attributes, even when the dataset is highly confounded.
These counterfactual images are then used to regularize the downstream
classifier such that the learned representations are the same across various
generative factors conditioned on the class label. Our method is
computationally efficient, simple to implement, and works well for any number
of generative factors and confounding variables. Our experimental results on
both synthetic (MNIST variants) and real-world (CelebA) datasets show the
usefulness of our approach.
- Abstract(参考訳): 機械学習モデルは、トレーニングデータにおける観察または観測されていない共同創設者の影響下で、素早い相関を学習し、デプロイ時に一般化できない。
画像分類器の場合、反実例を用いたトレーニングデータセットの強化は、スプリアス相関を破ることが実験的に示されている。
しかし, コンバウンディングのレベルが大きくなるにつれて, 対物生成タスク自体が難しくなる。
既存の逆ファクト生成法は、例えばテクスチャ、回転など)の固定された介入を考慮し、多様なデータ生成過程を捉えるのに十分な柔軟性がない。
因果生成過程が与えられると,下流タスクにおけるコンファウンディングの悪影響を形式的に特徴付け,生成要因(属性)間の相関を用いて生成要因間のコンファウンドを定量的に測定できることを示す。
このような相関を最小限に抑えるために,画像内の任意の属性の値を変更して,データセットが高度に結合された場合でも,観測された属性のセットが与えられた新しい画像を生成することを学ぶ偽り生成法を提案する。
これらの偽のイメージは下流の分類器を正則化するために使われ、学習された表現はクラスラベルで条件付けられた様々な生成要因で同じである。
提案手法は計算効率が良く,実装が簡単であり,様々な生成因子や結合変数に対して有効である。
合成 (MNIST 変種) と実世界 (CelebA) のデータセットによる実験結果から, 提案手法の有用性が示された。
関連論文リスト
- Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Multi-Task Self-Supervised Time-Series Representation Learning [3.31490164885582]
時系列表現学習は、時間的ダイナミクスとスパースラベルを持つデータから表現を抽出することができる。
自己教師型タスクの利点を組み合わせた時系列表現学習手法を提案する。
本稿では,時系列分類,予測,異常検出という3つのダウンストリームタスクの枠組みについて検討する。
論文 参考訳(メタデータ) (2023-03-02T07:44:06Z) - Leaving Reality to Imagination: Robust Classification via Generated
Datasets [24.411444438920988]
近年のロバスト性に関する研究では、テストセットと同様のデータセットでトレーニングされたニューラルイメージ分類器間での顕著なパフォーマンスギャップが明らかになった。
生成したデータセットは、画像分類器の自然な堅牢性にどのように影響するのか?
生成したデータで強化された実データに基づいて訓練された画像ネット分類器は、標準トレーニングよりも精度が高く、効果的に頑健であることがわかった。
論文 参考訳(メタデータ) (2023-02-05T22:49:33Z) - Explaining Image Classifiers Using Contrastive Counterfactuals in
Generative Latent Spaces [12.514483749037998]
本稿では,画像分類器の因果的かつ解釈可能な反事実的説明を生成する新しい手法を提案する。
我々は、ブラックボックス分類器のグローバルな説明として、コントラスト的かつ因果的満足度と必要性スコアを得るために、このフレームワークを使用します。
論文 参考訳(メタデータ) (2022-06-10T17:54:46Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Towards Robust Classification Model by Counterfactual and Invariant Data
Generation [7.488317734152585]
純粋さは、一部の特徴がラベルと相関するが因果関係がないときに起こる。
本稿では2つのデータ生成プロセスを提案する。
我々のデータ生成は、スプリアス相関が壊れたときの精度で最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-06-02T12:48:29Z) - Disentangled Recurrent Wasserstein Autoencoder [17.769077848342334]
Recurrent Wasserstein Autoencoder (R-WAE)はシーケンシャルデータの生成モデリングのための新しいフレームワークである。
R-WAEは入力シーケンスの表現を静的および動的因子に切り離す。
私達のモデルは無条件のビデオ生成およびdisentanglementの点では同じ設定の他のベースラインを上回ります。
論文 参考訳(メタデータ) (2021-01-19T07:43:25Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。