論文の概要: Poster: Link between Bias, Node Sensitivity and Long-Tail Distribution
in trained DNNs
- arxiv url: http://arxiv.org/abs/2303.16589v2
- Date: Mon, 3 Apr 2023 10:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 20:16:22.873884
- Title: Poster: Link between Bias, Node Sensitivity and Long-Tail Distribution
in trained DNNs
- Title(参考訳): Poster: トレーニングDNNにおけるバイアス、ノード感度、ロングテール分布の関連性
- Authors: Mahum Naseer and Muhammad Shafique
- Abstract要約: 長い尾の分布を持つトレーニングデータセットはディープニューラルネットワーク(DNN)に挑戦する
この研究は、異なる出力クラスに対するノードの感度の変化につながるノードバイアスを特定する。
実世界のデータセットでトレーニングされたネットワークの実証的なケーススタディを用いて、推論を支援する。
- 参考スコア(独自算出の注目度): 12.404169549562523
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Owing to their remarkable learning (and relearning) capabilities, deep neural
networks (DNNs) find use in numerous real-world applications. However, the
learning of these data-driven machine learning models is generally as good as
the data available to them for training. Hence, training datasets with
long-tail distribution pose a challenge for DNNs, since the DNNs trained on
them may provide a varying degree of classification performance across
different output classes. While the overall bias of such networks is already
highlighted in existing works, this work identifies the node bias that leads to
a varying sensitivity of the nodes for different output classes. To the best of
our knowledge, this is the first work highlighting this unique challenge in
DNNs, discussing its probable causes, and providing open challenges for this
new research direction. We support our reasoning using an empirical case study
of the networks trained on a real-world dataset.
- Abstract(参考訳): 優れた学習(と再学習)能力のため、ディープニューラルネットワーク(DNN)は多くの現実世界のアプリケーションで使われている。
しかし、これらのデータ駆動機械学習モデルの学習は、トレーニングで利用できるデータと同じくらい一般的に優れている。
したがって、長いテール分布を持つトレーニングデータセットは、異なる出力クラス間で異なるレベルの分類性能を提供する可能性があるため、dnnにとって課題となる。
このようなネットワークの全体的なバイアスはすでに既存の研究で強調されているが、この研究は異なる出力クラスに対するノードの感度の変化につながるノードバイアスを特定する。
私たちの知る限りでは、これはDNNにおけるこのユニークな課題を強調し、その可能性について議論し、この新しい研究の方向性にオープンな課題を提供する最初の作品です。
実世界のデータセットでトレーニングされたネットワークの実証的なケーススタディを用いて、推論を支援する。
関連論文リスト
- IDEA: A Flexible Framework of Certified Unlearning for Graph Neural Networks [68.6374698896505]
グラフニューラルネットワーク(GNN)は、ますます多くのアプリケーションにデプロイされている。
トレーニングされたGNNがデプロイされ、潜在的攻撃者に対して公開されると、プライバシリークが発生する可能性がある。
我々は,GNNのための柔軟で認定されたアンラーニングを実現するために,IDEAというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-28T04:59:59Z) - Making a Spiking Net Work: Robust brain-like unsupervised machine
learning [0.0]
Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替品である
SNNは動的安定性に悩まされており、ANNの精度と一致しない。
本稿では,SNNが文献で確認された多くの欠点を克服する方法について述べる。
論文 参考訳(メタデータ) (2022-08-02T02:10:00Z) - Generalizing Neural Networks by Reflecting Deviating Data in Production [15.498447555957773]
本稿では,DNNに対する予期せぬ実行時入力によるDNNの誤予測を緩和する実行時アプローチを提案する。
我々は,シームズネットワークが学習した距離測定値に基づく分布解析器を用いて,意味的に保存されていない入力を識別する。
我々のアプローチは、これらの予期せぬ入力を、類似のセマンティクスを持つと認識されるトレーニングセットから入力に変換する。
論文 参考訳(メタデータ) (2021-10-06T13:05:45Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - A Practical Tutorial on Graph Neural Networks [49.919443059032226]
グラフニューラルネットワーク(GNN)は、人工知能(AI)分野において最近人気が高まっている。
このチュートリアルでは、GNNのパワーとノベルティをAI実践者に公開している。
論文 参考訳(メタデータ) (2020-10-11T12:36:17Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。