論文の概要: Greedy structure learning from data that contains systematic missing
values
- arxiv url: http://arxiv.org/abs/2107.04184v1
- Date: Fri, 9 Jul 2021 02:56:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:44:46.273691
- Title: Greedy structure learning from data that contains systematic missing
values
- Title(参考訳): 系統的欠落値を含むデータから学習する欲求構造
- Authors: Yang Liu and Anthony C. Constantinou
- Abstract要約: 欠落した値を含むデータから学ぶことは、多くの領域でよくある現象である。
比較的少数のベイジアンネットワーク構造学習アルゴリズムが欠落データの原因となっている。
本稿では,2対の削除と逆確率重み付けを利用したグリージー検索構造学習の3つの変種について述べる。
- 参考スコア(独自算出の注目度): 13.088541054366527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from data that contain missing values represents a common phenomenon
in many domains. Relatively few Bayesian Network structure learning algorithms
account for missing data, and those that do tend to rely on standard approaches
that assume missing data are missing at random, such as the
Expectation-Maximisation algorithm. Because missing data are often systematic,
there is a need for more pragmatic methods that can effectively deal with data
sets containing missing values not missing at random. The absence of approaches
that deal with systematic missing data impedes the application of BN structure
learning methods to real-world problems where missingness are not random. This
paper describes three variants of greedy search structure learning that utilise
pairwise deletion and inverse probability weighting to maximally leverage the
observed data and to limit potential bias caused by missing values. The first
two of the variants can be viewed as sub-versions of the third and best
performing variant, but are important in their own in illustrating the
successive improvements in learning accuracy. The empirical investigations show
that the proposed approach outperforms the commonly used and state-of-the-art
Structural EM algorithm, both in terms of learning accuracy and efficiency, as
well as both when data are missing at random and not at random.
- Abstract(参考訳): 欠落した値を含むデータから学ぶことは、多くの領域で共通の現象である。
ベイズネットワーク構造学習アルゴリズムが欠落データを扱うのは、比較的少ないが、欠落データを想定最大化アルゴリズムのようにランダムに欠落していると仮定する標準的なアプローチに依存する傾向がある。
欠落したデータはしばしば体系的であるため、ランダムに欠落しない値を含むデータセットを効果的に扱えるより実用的な方法が必要である。
体系的な欠落データを扱うアプローチの欠如は、BN構造学習法の欠落がランダムでない実世界の問題への適用を妨げる。
本稿では,ペアワイズ削除と逆確率重み付けを活用し,観測データを最大に活用し,欠落値による潜在的なバイアスを最小化する,グリーディ探索構造学習の3つの変種について述べる。
最初の2つの変種は3番目の変種と最高の変種をサブバージョンと見なすことができるが、学習精度の連続的な改善を示す上で重要である。
実験により, 提案手法は, 学習精度と効率の両面において, 一般用および最先端の構造化EMアルゴリズムよりも優れており, ランダムにデータが欠落している場合や, ランダムではない場合にも優れることがわかった。
関連論文リスト
- Conditional expectation with regularization for missing data imputation [19.254291863337347]
欠落したデータは、医学、スポーツ、ファイナンスなど、さまざまな領域のデータセットで頻繁に発生する。
正規化による損失値の条件分布に基づくインプット(DIMV)という新しいアルゴリズムを提案する。
DIMVは、完全に観察された特徴からの情報をベースとして、エントリが不足している特徴の条件分布を決定することで機能する。
論文 参考訳(メタデータ) (2023-02-02T06:59:15Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - MissDAG: Causal Discovery in the Presence of Missing Data with
Continuous Additive Noise Models [78.72682320019737]
不完全な観測データから因果発見を行うため,MissDAGと呼ばれる一般的な手法を開発した。
MissDAGは、期待-最大化の枠組みの下で観測の可視部分の期待される可能性を最大化する。
各種因果探索アルゴリズムを組み込んだMissDAGの柔軟性について,広範囲なシミュレーションと実データ実験により検証した。
論文 参考訳(メタデータ) (2022-05-27T09:59:46Z) - Minimax rate of consistency for linear models with missing values [0.0]
多くの実世界のデータセットでは、複数のソースが集約され、本質的に欠落した情報(センサーの故障、調査における未回答の疑問...)が欠落する。
本稿では,広範に研究された線形モデルに焦点をあてるが,不足する値が存在する場合には,非常に難しい課題であることが判明した。
最終的には、多くの学習タスクを解決し、入力機能の数を指数関数的にすることで、現在の現実世界のデータセットでは予測が不可能になる。
論文 参考訳(メタデータ) (2022-02-03T08:45:34Z) - MIRACLE: Causally-Aware Imputation via Learning Missing Data Mechanisms [82.90843777097606]
欠落データに対する因果認識型計算アルゴリズム(MIRACLE)を提案する。
MIRACLEは、欠落発生機構を同時にモデル化することにより、ベースラインの計算を反復的に洗練する。
我々は、MIRACLEが一貫してイミューテーションを改善することができることを示すために、合成および様々な公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2021-11-04T22:38:18Z) - Riemannian classification of EEG signals with missing values [67.90148548467762]
本稿では脳波の分類に欠落したデータを扱うための2つの方法を提案する。
第1のアプローチでは、インプットされたデータと$k$-nearestの隣人アルゴリズムとの共分散を推定し、第2のアプローチでは、期待最大化アルゴリズム内で観測データの可能性を活用することにより、観測データに依存する。
その結果, 提案手法は観測データに基づく分類よりも優れており, 欠落したデータ比が増大しても高い精度を維持することができることがわかった。
論文 参考訳(メタデータ) (2021-10-19T14:24:50Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - NeuMiss networks: differentiable programming for supervised learning
with missing values [0.0]
線形性仮定の下で最適予測器の解析形式を導出する。
我々はNeuMissネットワークという新しい原則アーキテクチャを提案する。
パラメータの数と、欠落したデータパターンの数に依存しない計算複雑性の両方で、予測精度が良い。
論文 参考訳(メタデータ) (2020-07-03T11:42:25Z) - Causal Discovery from Incomplete Data using An Encoder and Reinforcement
Learning [2.4469484645516837]
新たなエンコーダと強化学習(RL)を用いて不完全データから因果構造を発見する手法を提案する。
エンコーダは、データ計算の欠如と特徴抽出のために設計されている。
本手法は不完全な観測データを入力として、因果構造グラフを生成する。
論文 参考訳(メタデータ) (2020-06-09T23:33:47Z) - On the consistency of supervised learning with missing values [15.666860186278782]
多くのアプリケーション設定において、データは分析を難しくするエントリを欠いている。
ここでは、教師あり学習の設定について考察する。トレーニングデータとテストデータの両方に、欠落した値が現れるときにターゲットを予測する。
本研究では,学習前の平均値など,一定値が得られない場合に一定であることを示す。
論文 参考訳(メタデータ) (2019-02-19T07:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。