論文の概要: Deeply-Learned Generalized Linear Models with Missing Data
- arxiv url: http://arxiv.org/abs/2207.08911v3
- Date: Thu, 26 Oct 2023 18:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 18:55:20.264558
- Title: Deeply-Learned Generalized Linear Models with Missing Data
- Title(参考訳): 欠測データを用いた深層学習一般化線形モデル
- Authors: David K Lim and Naim U Rashid and Junier B Oliva and Joseph G Ibrahim
- Abstract要約: 我々は、深く学習された一般化線形モデルの文脈において、欠測データの形式的処理を行う。
我々は、無視できないパターンと無視できないパターンの両方を柔軟に説明できる新しいアーキテクチャ、textitdlglmを提案する。
UCI Machine Learning Repositoryのバンクマーケティングデータセットのケーススタディで締めくくった。
- 参考スコア(独自算出の注目度): 6.302686933168439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) methods have dramatically increased in popularity in
recent years, with significant growth in their application to supervised
learning problems in the biomedical sciences. However, the greater prevalence
and complexity of missing data in modern biomedical datasets present
significant challenges for DL methods. Here, we provide a formal treatment of
missing data in the context of deeply learned generalized linear models, a
supervised DL architecture for regression and classification problems. We
propose a new architecture, \textit{dlglm}, that is one of the first to be able
to flexibly account for both ignorable and non-ignorable patterns of
missingness in input features and response at training time. We demonstrate
through statistical simulation that our method outperforms existing approaches
for supervised learning tasks in the presence of missing not at random (MNAR)
missingness. We conclude with a case study of a Bank Marketing dataset from the
UCI Machine Learning Repository, in which we predict whether clients subscribed
to a product based on phone survey data. Supplementary materials for this
article are available online.
- Abstract(参考訳): 深層学習法(deep learning, dl)は近年急速に普及し, 生物医学における学習問題を監督する分野への応用が著しい成長を遂げている。
しかし、現代のバイオメディカルデータセットにおける欠落データの存在率と複雑さは、DL法に重大な課題をもたらしている。
本稿では,回帰問題と分類問題のための教師付きdlアーキテクチャである深層学習型線形モデルの文脈における欠落データの形式的扱いについて述べる。
本稿では,入力機能と学習時の応答の欠如の無知パターンと無知パターンの両方を柔軟に説明できる新しいアーキテクチャである「textit{dlglm}」を提案する。
統計的シミュレーションにより,MNARの欠落の有無に関わらず,教師あり学習課題に対する既存手法よりも優れていることを示す。
UCI Machine Learning Repositoryのバンクマーケティングデータセットのケーススタディで、電話調査データに基づいてクライアントが製品に加入するかどうかを予測する。
この記事の補足資料はオンラインで入手できる。
関連論文リスト
- Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Multi-OCT-SelfNet: Integrating Self-Supervised Learning with Multi-Source Data Fusion for Enhanced Multi-Class Retinal Disease Classification [2.5091334993691206]
網膜疾患診断のための堅牢なディープラーニングモデルの開発には、トレーニングのためのかなりのデータセットが必要である。
より小さなデータセットで効果的に一般化する能力は、依然として永続的な課題である。
さまざまなデータソースを組み合わせて、パフォーマンスを改善し、新しいデータに一般化しています。
論文 参考訳(メタデータ) (2024-09-17T17:22:35Z) - Not Another Imputation Method: A Transformer-based Model for Missing Values in Tabular Datasets [1.02138250640885]
NAIM(Not Another Imputation Method)は、従来の計算手法を使わずに欠落した値を扱うために設計されたトランスフォーマーベースのモデルである。
NAIMは機能固有の埋め込みと、利用可能なデータから効果的に学習するマスク付き自己認識機構を採用している。
5つの公開データセット上でNAIMを広範囲に評価した。
論文 参考訳(メタデータ) (2024-07-16T09:43:47Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Predicting Seriousness of Injury in a Traffic Accident: A New Imbalanced
Dataset and Benchmark [62.997667081978825]
本稿では,交通事故における傷害の重大性を予測するために,機械学習アルゴリズムの性能を評価する新しいデータセットを提案する。
データセットは、英国運輸省から公開されているデータセットを集約することで作成される。
論文 参考訳(メタデータ) (2022-05-20T21:15:26Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Categorical EHR Imputation with Generative Adversarial Nets [11.171712535005357]
本稿では,データ計算のためのGANに関する従来の研究を基にした,シンプルで効果的な手法を提案する。
従来のデータ計算手法に比べて予測精度が大幅に向上していることを示す。
論文 参考訳(メタデータ) (2021-08-03T18:50:26Z) - On the Pitfalls of Learning with Limited Data: A Facial Expression
Recognition Case Study [0.5249805590164901]
私達はビデオからの顔表現の認識の問題に焦点を合わせます。
4つのデータベースを異なる複雑さで,9つのディープラーニングアーキテクチャで動画分類を行った。
複雑なトレーニングセットは、トランスファーラーニングと合成生成データでトレーニングすると、より安定したテストセットによく変換されます。
論文 参考訳(メタデータ) (2021-04-02T18:53:41Z) - Handling Non-ignorably Missing Features in Electronic Health Records
Data Using Importance-Weighted Autoencoders [8.518166245293703]
本稿では,生体データのランダムなパターンではなく,欠落を柔軟に扱うために,重要度重み付きオートエンコーダ(iwaes)と呼ばれるvaesの新たな拡張を提案する。
提案手法は,組み込みニューラルネットワークを用いて欠落機構をモデル化し,欠落機構の正確な形式を事前に指定する必要をなくした。
論文 参考訳(メタデータ) (2021-01-18T22:53:29Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。