論文の概要: Data Augmentation via Causal-Residual Bootstrapping
- arxiv url: http://arxiv.org/abs/2603.15335v1
- Date: Mon, 16 Mar 2026 14:25:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.427205
- Title: Data Augmentation via Causal-Residual Bootstrapping
- Title(参考訳): Causal-Residual Bootstrappingによるデータ拡張
- Authors: Mateusz Gajewski, Sophia Xiao, Bijan Mazaheri,
- Abstract要約: データ拡張は、既存のデータポイントにドメインをインフォームした修正を加えることで、ドメイン知識をデータセットに統合する。
テシマと杉山による最近の研究は、因果知識の統合と条件付き独立の等価性について検討している。
我々はマルコフ同値クラスを超えて情報を組み込むことのできる付加雑音のある設定に対する関連するアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.3445472031781387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation integrates domain knowledge into a dataset by making domain-informed modifications to existing data points. For example, image data can be augmented by duplicating images in different tints or orientations, thereby incorporating the knowledge that images may vary in these dimensions. Recent work by Teshima and Sugiyama has explored the integration of causal knowledge (e.g, A causes B causes C) up to conditional independence equivalence. We suggest a related approach for settings with additive noise that can incorporate information beyond a Markov equivalence class. The approach, built on the principle of independent mechanisms, permutes the residuals of models built on marginal probability distributions. Predictive models built on our augmented data demonstrate improved accuracy, for which we provide theoretical backing in linear Gaussian settings.
- Abstract(参考訳): データ拡張は、既存のデータポイントにドメインをインフォームした修正を加えることで、ドメイン知識をデータセットに統合する。
例えば、画像データは、異なるスズや方向の画像を複製することで拡張することができ、それによって、画像がこれらの次元で異なる可能性があるという知識を取り入れることができる。
テシマと杉山による最近の研究は、因果知識(例えば、A因果BがCの原因となる)を条件付き独立同値へと統合することを探っている。
マルコフ同値クラスを超えて情報を組み込むことのできる付加雑音のある設定に対する関連するアプローチを提案する。
この手法は独立機構の原理に基づいて構築され、限界確率分布上に構築されたモデルの残基を置換する。
拡張データ上に構築された予測モデルにより精度が向上し,線形ガウス設定における理論的裏付けが得られた。
関連論文リスト
- Causal Discovery on Dependent Binary Data [6.464898093190062]
本稿では,関係するバイナリデータに基づく因果グラフ学習のためのデコレーションに基づくアプローチを提案する。
我々は,潜在ユーティリティ変数のサンプルの生成とデコレーションを行うEMライクな反復アルゴリズムを開発した。
提案手法は因果グラフ学習の精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-12-28T21:55:42Z) - Data Augmentation for Image Classification using Generative AI [8.74488498507946]
データ拡張はデータセットのサイズを拡大するための有望なソリューションである。
最近のアプローチでは、生成AIモデルを使用してデータセットの多様性を改善している。
我々はAGA(Automated Generative Data Augmentation)を提案する。
論文 参考訳(メタデータ) (2024-08-31T21:16:43Z) - Deep Generative Data Assimilation in Multimodal Setting [0.1052166918701117]
本研究では,マルチモーダル・セッティングにおけるスコアベースラテント・アシミレーション(SLAMS)を提案する。
気象観測所のデータと衛星画像とを同化して、垂直温度分布を世界規模で校正する。
私たちの研究は、実世界のデータセットを用いたマルチモーダルデータ同化に、初めて深層生成フレームワークを適用しました。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Combining inherent knowledge of vision-language models with unsupervised domain adaptation through strong-weak guidance [44.1830188215271]
教師なしドメイン適応(UDA)は、ラベル付きソースデータセットを活用することで、データのラベル付けの面倒な作業を克服しようとする。
現在の視覚言語モデルは、顕著なゼロショット予測能力を示す。
我々は、ゼロショット予測を用いて、ソースとターゲットデータセットの整列を支援する、強弱誘導学習スキームを導入する。
論文 参考訳(メタデータ) (2023-12-07T06:16:39Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Incorporating Causal Graphical Prior Knowledge into Predictive Modeling
via Simple Data Augmentation [92.96204497841032]
因果グラフ(CG)は、データ分散の背後にあるデータ生成プロセスの知識のコンパクトな表現である。
本研究では,条件付き独立性(CI)関係の事前知識を活用可能なモデルに依存しないデータ拡張手法を提案する。
本手法は,小データシステムにおける予測精度の向上に有効であることを実験的に示した。
論文 参考訳(メタデータ) (2021-02-27T06:13:59Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。