論文の概要: Generalizing Orthogonalization for Models with Non-linearities
- arxiv url: http://arxiv.org/abs/2405.02475v1
- Date: Fri, 3 May 2024 20:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 19:50:15.814463
- Title: Generalizing Orthogonalization for Models with Non-linearities
- Title(参考訳): 非線型モデルに対する一般化直交化
- Authors: David Rügamer, Chris Kolb, Tobias Weber, Lucas Kook, Thomas Nagler,
- Abstract要約: ブラックボックスアルゴリズムの複雑さは、バイアスの導入など、様々な問題を引き起こす可能性がある。
ニューラルネットワークは患者のX線スキャンからのみ人種情報を推論できることが示されている。
本稿では,ReLUアクティベーションなどの非線形性に対する補正を導入することで,談話の進行を推し進める。
- 参考スコア(独自算出の注目度): 2.6746958237471974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The complexity of black-box algorithms can lead to various challenges, including the introduction of biases. These biases present immediate risks in the algorithms' application. It was, for instance, shown that neural networks can deduce racial information solely from a patient's X-ray scan, a task beyond the capability of medical experts. If this fact is not known to the medical expert, automatic decision-making based on this algorithm could lead to prescribing a treatment (purely) based on racial information. While current methodologies allow for the "orthogonalization" or "normalization" of neural networks with respect to such information, existing approaches are grounded in linear models. Our paper advances the discourse by introducing corrections for non-linearities such as ReLU activations. Our approach also encompasses scalar and tensor-valued predictions, facilitating its integration into neural network architectures. Through extensive experiments, we validate our method's effectiveness in safeguarding sensitive data in generalized linear models, normalizing convolutional neural networks for metadata, and rectifying pre-existing embeddings for undesired attributes.
- Abstract(参考訳): ブラックボックスアルゴリズムの複雑さは、バイアスの導入など、様々な問題を引き起こす可能性がある。
これらのバイアスは、アルゴリズムの応用における即時的なリスクを示す。
例えば、ニューラルネットワークが患者のX線スキャンからのみ人種情報を抽出できることは、医療専門家の能力を超えた課題である。
もしこの事実が医療専門家に知られていなければ、このアルゴリズムに基づく自動意思決定は、人種情報に基づく(純粋に)治療の処方につながる可能性がある。
現在の手法では、そのような情報に関してニューラルネットワークの「直交化」や「正規化」が可能であるが、既存のアプローチは線形モデルに基礎を置いている。
本稿では,ReLUアクティベーションなどの非線形性に対する補正を導入することで,談話の進行を推し進める。
我々のアプローチはスカラーおよびテンソル値の予測も含み、ニューラルネットワークアーキテクチャへの統合を容易にする。
広範な実験を通じて、一般化線形モデルにおけるセンシティブなデータの保護、メタデータのための畳み込みニューラルネットワークの正規化、および望ましくない属性に対する既存の埋め込みの修正における我々の方法の有効性を検証する。
関連論文リスト
- Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
多様体容量は、人口幾何学とニューラル多様体の分離性とを結びつける有望な枠組みとして出現している。
本稿では,文脈入力情報を活用することによって,この制限を克服する理論的枠組みを提案する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現アンハングメントをキャプチャするが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Instance-wise Linearization of Neural Network for Model Interpretation [13.583425552511704]
この課題は、ニューラルネットワークの非線形動作に潜むことができる。
ニューラルネットワークモデルでは、非線形な振る舞いはモデルの非線形なアクティベーションユニットによって引き起こされることが多い。
本稿では,ニューラルネットワーク予測のフォワード計算過程を再構成するインスタンスワイズ線形化手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T02:07:39Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - A simple normative network approximates local non-Hebbian learning in
the cortex [12.940770779756482]
神経科学実験は、皮質ニューロンによる感覚入力の処理は、指示信号によって変調されることを示した。
ここでは、規範的なアプローチを採用し、フィードフォワードデータの投影を導く監督的な入力として、これらの命令信号をモデル化する。
オンラインアルゴリズムは、シナプス学習規則が大脳皮質で観察されるカルシウムプラトー電位依存的な可塑性に類似しているニューラルネットワークによって実装することができる。
論文 参考訳(メタデータ) (2020-10-23T20:49:44Z) - Relaxing the Constraints on Predictive Coding Models [62.997667081978825]
予測符号化(英: Predictive coding)は、脳が行う主計算が予測誤差の最小化であるとする皮質機能の影響力のある理論である。
アルゴリズムの標準的な実装は、同じ前方と後方の重み、後方の非線形微分、1-1エラーユニット接続といった、潜在的に神経的に予測できない特徴を含んでいる。
本稿では,これらの特徴はアルゴリズムに不可欠なものではなく,Hebbianの更新ルールを用いてパラメータセットを直接あるいは学習することで,学習性能に悪影響を及ぼすことなく除去可能であることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:21:37Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - Uncertainty-Aware Deep Classifiers using Generative Models [7.486679152591502]
ディープニューラルネットワークは、しばしば、彼らが知らないことについて無知であり、インフォームド予測を行うときに過信する。
最近のアプローチでは、クラス境界に近いデータサンプルやトレーニング分布の外側から、モデルに高い不確実性を出力するようにトレーニングすることで、不確実性を直接定量化している。
本研究では,アレータ性およびてんかん性不確実性の両方を表現し,決定境界と分布外領域を識別できる新しいニューラルネットワークモデルを構築した。
論文 参考訳(メタデータ) (2020-06-07T15:38:35Z) - Bayesian Neural Networks [0.0]
ニューラルネットワークによる予測におけるエラーを原理的に得る方法を示し、これらのエラーを特徴付ける2つの方法を提案する。
さらに、これらの2つのメソッドが実際に実施される際に、重大な落とし穴を持つ方法についても説明します。
論文 参考訳(メタデータ) (2020-06-02T09:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。