論文の概要: Neural Networks Are Implicit Decision Trees: The Hierarchical Simplicity
Bias
- arxiv url: http://arxiv.org/abs/2311.02622v1
- Date: Sun, 5 Nov 2023 11:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:40:36.292186
- Title: Neural Networks Are Implicit Decision Trees: The Hierarchical Simplicity
Bias
- Title(参考訳): ニューラルネットワークは複雑な決定木:階層的単純性バイアス
- Authors: Zhehang Du
- Abstract要約: 単純な特徴と複雑な特徴が異なるレベルの予測能力を示すシナリオを考察するために,不均衡ラベル結合と呼ばれる新しい手法を導入する。
トレーニングされたネットワークは、トレーニングセット内のラベルとどのように相関するかに応じて、入力機能の上昇する複雑さを予測します。
この観察は、ニューラルネットワークが刺激的な特徴の存在下でコア特徴を学習しているという直接的な証拠を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks exhibit simplicity bias; they rely on simpler features while
ignoring equally predictive but more complex features. In this work, we
introduce a novel approach termed imbalanced label coupling to investigate
scenarios where simple and complex features exhibit different levels of
predictive power. In these cases, complex features still contribute to
predictions. The trained networks make predictions in alignment with the
ascending complexity of input features according to how they correlate with the
label in the training set, irrespective of the underlying predictive power. For
instance, even when simple spurious features distort predictions in CIFAR-10,
most cats are predicted to be dogs, and most trucks are predicted to be
automobiles! This observation provides direct evidence that the neural network
learns core features in the presence of spurious features. We empirically show
that last-layer retraining with target data distribution is effective, yet
insufficient to fully recover core features when spurious features are
perfectly correlated with the target labels in our synthetic dataset. We hope
our research contributes to a deeper understanding of the implicit bias of
neural networks.
- Abstract(参考訳): ニューラルネットワークは単純さのバイアスを示し、より単純な特徴に依存しながら、等しく予測的だがより複雑な特徴を無視している。
本研究では, 単純かつ複雑な特徴が予測能力の異なるレベルを示すシナリオを考察するために, 不均衡ラベル結合という新しい手法を提案する。
このような場合、複雑な特徴が予測に寄与する。
トレーニングされたネットワークは、基礎となる予測能力に関係なく、トレーニングセットのラベルとどのように相関するかに応じて、入力機能の上昇する複雑性に合わせて予測を行う。
例えば、CIFAR-10の単純な突発的特徴が歪曲する予測であっても、ほとんどの猫は犬であると予測され、ほとんどのトラックは自動車であると予測されます!
この観察は、ニューラルネットワークがスプリアス特徴の存在下でコア特徴を学ぶという直接的な証拠を提供する。
目的とするデータ分布による最終層再トレーニングは有効であるが, 合成データセットのターゲットラベルと完全相関している場合, コア機能の完全回復には不十分であることを示す。
私たちの研究が、ニューラルネットワークの暗黙の偏見をより深く理解してくれることを願っています。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [56.04573160453392]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Hybrid machine-learned homogenization: Bayesian data mining and
convolutional neural networks [0.0]
本研究では,新しい特徴記述子を開発することにより,機械学習による予測を改善することを目的とする。
特徴記述子の反復的な開発により37の新たな特徴が生まれ、予測誤差を約3分の1削減することができた。
特徴に基づくアプローチと畳み込みニューラルネットワークの組み合わせは、ハイブリッドニューラルネットワークにつながる。
論文 参考訳(メタデータ) (2023-02-24T09:59:29Z) - Overcoming Simplicity Bias in Deep Networks using a Feature Sieve [5.33024001730262]
本稿では,深層ネットワークにおける単純さバイアスに対処するための直接的,介入的手法を提案する。
ネットワークの下位層で容易に計算可能なスプリアス機能を自動的に識別し,抑制することを目的としている。
実世界のデバイアスのベンチマークでは,かなりの増加が報告されている。
論文 参考訳(メタデータ) (2023-01-30T21:11:13Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Locally Sparse Networks for Interpretable Predictions [7.362415721170984]
本稿では,局所的な疎度をサンプル固有のゲーティング機構を用いて学習する,局所スパースニューラルネットワークのトレーニングフレームワークを提案する。
サンプル固有の間隔は、テキスト予測ネットワークで予測され、テキスト予測ネットワークとタンデムでトレーニングされる。
本手法は,1インスタンスあたりの機能が少ないターゲット関数の予測において,最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T15:46:50Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Consistent feature selection for neural networks via Adaptive Group
Lasso [3.42658286826597]
ニューラルネットワークの重要な特徴を選択するための適応型グループの使用に関する理論的保証を提案し,確立する。
具体的には,1つの隠蔽層と双曲的タンジェント活性化関数を持つ単一出力フィードフォワードニューラルネットワークに対して,特徴選択法が整合であることを示す。
論文 参考訳(メタデータ) (2020-05-30T18:50:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。