論文の概要: Causal Theories and Structural Data Representations for Improving
Out-of-Distribution Classification
- arxiv url: http://arxiv.org/abs/2309.10211v1
- Date: Mon, 18 Sep 2023 23:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 17:09:01.957419
- Title: Causal Theories and Structural Data Representations for Improving
Out-of-Distribution Classification
- Title(参考訳): 分断分類を改善する因果理論と構造データ表現
- Authors: Donald Martin, Jr. and David Kinney
- Abstract要約: 我々は、複雑な分類タスクのためにニューラルネットワークをトレーニングする際のデータの表現を導くために、人間中心因果理論をどのように展開するかを検討する。
本研究では,疫病発生過程における構造的因果的特徴を明示するデータ表現を用いたニューラルネットワークのトレーニングにより,アウト・オブ・ディストリビューションの一般化性能が向上することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider how human-centered causal theories and tools from the dynamical
systems literature can be deployed to guide the representation of data when
training neural networks for complex classification tasks. Specifically, we use
simulated data to show that training a neural network with a data
representation that makes explicit the invariant structural causal features of
the data generating process of an epidemic system improves out-of-distribution
(OOD) generalization performance on a classification task as compared to a more
naive approach to data representation. We take these results to demonstrate
that using human-generated causal knowledge to reduce the epistemic uncertainty
of ML developers can lead to more well-specified ML pipelines. This, in turn,
points to the utility of a dynamical systems approach to the broader effort
aimed at improving the robustness and safety of machine learning systems via
improved ML system development practices.
- Abstract(参考訳): 複雑な分類タスクのためにニューラルネットワークをトレーニングする際に、人間の中心にある因果理論や動的システムからのツールがどのようにしてデータの表現を導くかを考察する。
具体的には,シミュレーションデータを用いて,パンデミックシステムのデータ生成過程の不変構造的因果特性を明示するデータ表現を用いたニューラルネットワークのトレーニングにより,データ表現に対するより自然なアプローチと比較して,分類タスクにおけるout-of-distribution(ood)一般化性能が向上することを示す。
これらの結果から,人為的な因果的知識を用いて,ML開発者の先天的不確実性を低減し,より明確に定義されたMLパイプラインを実現できることを示す。
これは、mlシステム開発プラクティスの改善を通じて、機械学習システムの堅牢性と安全性を改善することを目的とした、より広範な取り組みへの動的システムアプローチの有用性を示している。
関連論文リスト
- Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - IB-UQ: Information bottleneck based uncertainty quantification for
neural function regression and neural operator learning [11.5992081385106]
本稿では,科学的機械学習タスクのための情報ボトルネック(IB-UQ)による不確実性定量化のための新しいフレームワークを提案する。
我々は,入力データの信頼度に応じて,入力を潜在表現に符号化する信頼認識エンコーダによってボトルネックを埋め込む。
また,外挿不確かさの質を高めるために,データ拡張に基づく情報ボトルネック目標を提案する。
論文 参考訳(メタデータ) (2023-02-07T05:56:42Z) - Addressing Bias in Visualization Recommenders by Identifying Trends in
Training Data: Improving VizML Through a Statistical Analysis of the Plotly
Community Feed [55.41644538483948]
機械学習は、高いスケーラビリティと表現力のために、視覚化レコメンデーションに対する有望なアプローチである。
本研究は,統計的解析によりトレーニングデータの傾向を特定することで,機械学習可視化推薦システムにおけるトレーニングバイアスに対処することを目的とする。
論文 参考訳(メタデータ) (2022-03-09T18:36:46Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Evaluating deep transfer learning for whole-brain cognitive decoding [11.898286908882561]
転送学習(TL)は、少数のサンプルを持つデータセットにおける深層学習(DL)モデルの性能向上に適している。
本稿では,全脳機能型磁気共鳴画像(fMRI)データから認識状態の復号化にDLモデルを適用するためのTLを評価した。
論文 参考訳(メタデータ) (2021-11-01T15:44:49Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z) - The Utility of Feature Reuse: Transfer Learning in Data-Starved Regimes [6.419457653976053]
データ・スターベド・レシエーションを持つドメインに対する転送学習のユースケースについて述べる。
畳み込み特徴抽出と微調整の有効性を評価する。
我々はトランスファーラーニングがCNNアーキテクチャの性能を向上させることを結論付けている。
論文 参考訳(メタデータ) (2020-02-29T18:48:58Z) - Causal Discovery from Incomplete Data: A Deep Learning Approach [21.289342482087267]
因果構造探索と因果構造探索を反復的に行うために, 因果学習を提案する。
ICLは、異なるデータメカニズムで最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-15T14:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。