論文の概要: Implicit Visual Bias Mitigation by Posterior Estimate Sharpening of a
Bayesian Neural Network
- arxiv url: http://arxiv.org/abs/2303.16564v3
- Date: Tue, 27 Feb 2024 15:08:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 00:56:31.018233
- Title: Implicit Visual Bias Mitigation by Posterior Estimate Sharpening of a
Bayesian Neural Network
- Title(参考訳): ベイズ型ニューラルネットワークの後方推定シャープ化による暗黙的視覚バイアス軽減
- Authors: Rebecca S Stone, Nishant Ravikumar, Andrew J Bulpitt, David C Hogg
- Abstract要約: ベイズニューラルネットワークを用いた新しい暗黙的緩和法を提案する。
提案手法は,高い不確実性に寄与しないコア特徴に注目することを促す。
- 参考スコア(独自算出の注目度): 7.488317734152586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The fairness of a deep neural network is strongly affected by dataset bias
and spurious correlations, both of which are usually present in modern
feature-rich and complex visual datasets. Due to the difficulty and variability
of the task, no single de-biasing method has been universally successful. In
particular, implicit methods not requiring explicit knowledge of bias variables
are especially relevant for real-world applications. We propose a novel
implicit mitigation method using a Bayesian neural network, allowing us to
leverage the relationship between epistemic uncertainties and the presence of
bias or spurious correlations in a sample. Our proposed posterior estimate
sharpening procedure encourages the network to focus on core features that do
not contribute to high uncertainties. Experimental results on three benchmark
datasets demonstrate that Bayesian networks with sharpened posterior estimates
perform comparably to prior existing methods and show potential worthy of
further exploration.
- Abstract(参考訳): ディープニューラルネットワークの公平性は、データセットバイアスとスプリアス相関に強く影響され、どちらも現代の機能豊富な複雑なビジュアルデータセットに通常存在する。
タスクの難易度と可変性のため、単一の脱バイアス手法は一般には成功していない。
特に、バイアス変数の明示的な知識を必要としない暗黙的手法は、実世界のアプリケーションにとって特に関係がある。
そこで本研究では,ベイズ型ニューラルネットワークを用いた暗黙的緩和法を提案する。
提案手法は,高い不確実性に寄与しないコア機能にネットワークを集中させることを奨励するものである。
3つのベンチマークデータセットによる実験結果から, ベイジアンネットワークは従来の手法と相容れない性能を示し, さらなる探索にふさわしい可能性が示唆された。
関連論文リスト
- Uncertainty Propagation through Trained Deep Neural Networks Using
Factor Graphs [4.704825771757308]
不確実性伝播は、入力不確かさをネットワーク予測に伝播させることにより、アレタリック不確かさを推定しようとする。
深層ニューラルネットワーク内の複雑な情報の流れに触発され,因子グラフを用いた非線形最適化問題として不確実性伝播を仮定して新しい手法を開発した。
論文 参考訳(メタデータ) (2023-12-10T17:26:27Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Toward Robust Uncertainty Estimation with Random Activation Functions [3.0586855806896045]
本稿では,ランダムアクティベーション関数(RAF)アンサンブルを用いた不確実性定量化手法を提案する。
RAF アンサンブルは、合成データセットと実世界のデータセットの両方において、最先端のアンサンブル不確実性定量化手法より優れている。
論文 参考訳(メタデータ) (2023-02-28T13:17:56Z) - Epistemic Uncertainty-Weighted Loss for Visual Bias Mitigation [6.85474615630103]
偏見の存在を完全に無視する探索手法の妥当性を論じる。
本稿では,予測不確実性重み付き損失関数を持つベイズニューラルネットワークを用いて潜在的なバイアスを特定することを提案する。
本手法は、バイアスベンチマークデータセットや実世界の顔検出問題において、視覚バイアスを緩和する可能性があることを示す。
論文 参考訳(メタデータ) (2022-04-20T11:01:51Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Ramifications of Approximate Posterior Inference for Bayesian Deep
Learning in Adversarial and Out-of-Distribution Settings [7.476901945542385]
ベイジアン深層学習モデルが従来のニューラルネットワークよりわずかに優れていることを示す。
予備的な調査は、初期化、アーキテクチャ、アクティベーション関数の選択によるバイアスの潜在的固有の役割を示している。
論文 参考訳(メタデータ) (2020-09-03T16:58:15Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。