論文の概要: Cycle-Consistent Counterfactuals by Latent Transformations
- arxiv url: http://arxiv.org/abs/2203.15064v1
- Date: Mon, 28 Mar 2022 20:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 12:21:54.963682
- Title: Cycle-Consistent Counterfactuals by Latent Transformations
- Title(参考訳): 潜在変換によるサイクル整合反事実
- Authors: Saeed Khorram, Li Fuxin
- Abstract要約: C3LT (Cycle-Consistent Counterfactuals by Latent Transformations) は、生成モデルの潜在空間内でのステアリングによって視覚を自動生成する潜時変換を学習する。
C3LTは、どんな最先端の事前訓練された生成ネットワークにも容易に接続できる。
CFの説明を評価するためのいくつかの確立されたメトリクスに加えて、生成されたCFの例の品質を評価するために調整された新しいメトリクスを導入する。
- 参考スコア(独自算出の注目度): 5.254093731341154
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: CounterFactual (CF) visual explanations try to find images similar to the
query image that change the decision of a vision system to a specified outcome.
Existing methods either require inference-time optimization or joint training
with a generative adversarial model which makes them time-consuming and
difficult to use in practice. We propose a novel approach, Cycle-Consistent
Counterfactuals by Latent Transformations (C3LT), which learns a latent
transformation that automatically generates visual CFs by steering in the
latent space of generative models. Our method uses cycle consistency between
the query and CF latent representations which helps our training to find better
solutions. C3LT can be easily plugged into any state-of-the-art pretrained
generative network. This enables our method to generate high-quality and
interpretable CF images at high resolution such as those in ImageNet. In
addition to several established metrics for evaluating CF explanations, we
introduce a novel metric tailored to assess the quality of the generated CF
examples and validate the effectiveness of our method on an extensive set of
experiments.
- Abstract(参考訳): CounterFactual (CF) 視覚的説明は、視覚系の決定を特定の結果に変更するクエリ画像に似た画像を見つけようとする。
既存の手法では、推論時間最適化を必要とするか、生成敵モデルとの合同トレーニングを必要とする。
生成モデルの潜在空間内でのステアリングによって視覚的CFを自動的に生成する潜時変換を学習する,潜時変換による循環連続対実法 (C3LT) を提案する。
我々の方法は、クエリとCF遅延表現の間のサイクル一貫性を使い、トレーニングがより良いソリューションを見つけるのに役立ちます。
c3ltは、最先端のトレーニング済み生成ネットワークに簡単に接続できる。
これにより、ImageNetのような高解像度で高品質で解釈可能なCF画像を生成することができる。
提案手法は, CF説明評価のための確立された指標に加えて, 生成したCF例の品質評価や, 提案手法の有効性を, 広範囲な実験で検証するための新しい指標を提案する。
関連論文リスト
- The Gaussian Discriminant Variational Autoencoder (GdVAE): A Self-Explainable Model with Counterfactual Explanations [6.741417019751439]
視覚的対物的説明(CF)法は、画像の概念を変更し、予測を事前に定義された結果に変更する。
本稿では,条件付き変分オートエンコーダ(CVAE)とCF説明の統合に基づく自己説明可能なモデルであるGdVAEを紹介する。
CFsの整合性は、説明関数で潜在空間を正規化することによって改善される。
論文 参考訳(メタデータ) (2024-09-19T17:58:15Z) - Corner-to-Center Long-range Context Model for Efficient Learned Image
Compression [70.0411436929495]
学習された画像圧縮のフレームワークでは、コンテキストモデルは潜在表現間の依存関係をキャプチャする上で重要な役割を果たす。
本研究では,textbfCorner-to-Center 変換器を用いたコンテキストモデル (C$3$M) を提案する。
また,解析および合成変換における受容場を拡大するために,エンコーダ/デコーダのLong-range Crossing Attention Module (LCAM) を用いる。
論文 参考訳(メタデータ) (2023-11-29T21:40:28Z) - Image Inpainting via Tractable Steering of Diffusion Models [54.13818673257381]
本稿では,トラクタブル確率モデル(TPM)の制約後部を正確に,かつ効率的に計算する能力を活用することを提案する。
具体的には、確率回路(PC)と呼ばれる表現型TPMのクラスを採用する。
提案手法は, 画像の全体的な品質とセマンティックコヒーレンスを, 計算オーバーヘッドを10%加えるだけで一貫的に改善できることを示す。
論文 参考訳(メタデータ) (2023-11-28T21:14:02Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Diffusion-based Visual Counterfactual Explanations -- Towards Systematic
Quantitative Evaluation [64.0476282000118]
視覚的対物的説明法(VCE)の最新手法は、深い生成モデルの力を利用して、印象的な画質の高次元画像の新しい例を合成する。
評価手順が大きく異なり,個々の実例の視覚検査や小規模なユーザスタディなど,これらのVCE手法の性能を比較することは,現時点では困難である。
本稿では,VCE手法の体系的,定量的評価のためのフレームワークと,使用する指標の最小セットを提案する。
論文 参考訳(メタデータ) (2023-08-11T12:22:37Z) - DELAD: Deep Landweber-guided deconvolution with Hessian and sparse prior [0.22940141855172028]
本稿では,古典的反復法をディープラーニングアプリケーションに組み込んだ非盲検画像デコンボリューションモデルを提案する。
このアルゴリズムは、トレーニング可能な畳み込み層と統合され、復元された画像構造と詳細を強化する。
論文 参考訳(メタデータ) (2022-09-30T11:15:03Z) - Robust Cross-Modal Representation Learning with Progressive
Self-Distillation [7.676408770854477]
CLIPの視覚言語アプローチの学習目的は、Webハーベスト画像キャプションデータセットに見られるノイズの多い多対多対応を効果的に考慮していない。
本研究では、進行的な自己蒸留とソフトな画像テキストアライメントを用いて、雑音の多いデータから頑健な表現をより効率的に学習するクロスモーダルコントラスト学習に基づく新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-10T03:28:18Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Contour-guided Image Completion with Perceptual Grouping [7.588025965572449]
本稿では,コンプリーション・フィールド(SCF)アルゴリズムの近代化モデルを実装した。
SCFアルゴリズムが人間の知覚にどのように影響するかを示す。
我々は,SCF完成輪郭を塗装用ガイドとして使用し,そのガイドが最先端モデルの性能を向上させることを示す。
論文 参考訳(メタデータ) (2021-11-22T16:26:25Z) - Generating Images with Sparse Representations [21.27273495926409]
画像の高次元化は、確率に基づく生成モデルのアーキテクチャとサンプリング効率の課題を示す。
JPEGのような一般的な画像圧縮法に触発された代替手法を提示し、画像を量子化された離散コサイン変換(DCT)ブロックに変換する。
本稿では,次の要素の条件分布を逐次的に予測するトランスフォーマに基づく自己回帰型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-05T17:56:03Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。