論文の概要: Can Information Flows Suggest Targets for Interventions in Neural
Circuits?
- arxiv url: http://arxiv.org/abs/2111.05299v1
- Date: Tue, 9 Nov 2021 17:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 14:47:40.007005
- Title: Can Information Flows Suggest Targets for Interventions in Neural
Circuits?
- Title(参考訳): 情報フローは神経回路への介入の標的となるか?
- Authors: Praveen Venkatesh, Sanghamitra Dutta, Neil Mehta and Pulkit Grover
- Abstract要約: 神経科学および臨床応用により,情報フローの観察的測定が介入を示唆するか否かを実証的に検討した。
我々は、訓練されたニューラルネットワークのエッジ上の真のラベル(精度に責任があり、したがって望ましい)に関する情報の流れを計測する。
保護属性に関する大きな情報の流れを伝達するプルーニングエッジは,出力時のバイアスを大幅に低減することを示す。
- 参考スコア(独自算出の注目度): 21.50255963224792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by neuroscientific and clinical applications, we empirically
examine whether observational measures of information flow can suggest
interventions. We do so by performing experiments on artificial neural networks
in the context of fairness in machine learning, where the goal is to induce
fairness in the system through interventions. Using our recently developed
$M$-information flow framework, we measure the flow of information about the
true label (responsible for accuracy, and hence desirable), and separately, the
flow of information about a protected attribute (responsible for bias, and
hence undesirable) on the edges of a trained neural network. We then compare
the flow magnitudes against the effect of intervening on those edges by
pruning. We show that pruning edges that carry larger information flows about
the protected attribute reduces bias at the output to a greater extent. This
demonstrates that $M$-information flow can meaningfully suggest targets for
interventions, answering the title's question in the affirmative. We also
evaluate bias-accuracy tradeoffs for different intervention strategies, to
analyze how one might use estimates of desirable and undesirable information
flows (here, accuracy and bias flows) to inform interventions that preserve the
former while reducing the latter.
- Abstract(参考訳): 神経科学および臨床応用により,情報フローの観察的測定が介入を示唆するか否かを実証的に検討した。
機械学習における公平性という文脈において、ニューラルネットワークの実験を行うことで、システムの公平性を介入を通じて誘導することを目的としている。
最近開発した$M$-information flow frameworkを用いて、真のラベルに関する情報の流れ(精度に責任があり、したがって望ましい)を測定し、訓練されたニューラルネットワークのエッジ上の保護属性(バイアスに責任があり、したがって望ましくない)に関する情報の流れを別々に計測する。
次に, 流れの大きさを, 刈り込みによる介入の影響と比較する。
保護属性に関する大きな情報の流れを伝達するプルーニングエッジは,出力時のバイアスを大幅に低減することを示す。
これは、$M$-information flowが介入のターゲットを有意義に提案できることを示し、肯定的なタイトルの質問に答える。
また、異なる介入戦略に対するバイアス精度トレードオフを評価し、望ましくない情報フロー(以下、精度、バイアスフロー)の推定値を用いて、後者を減らしながら前者を保存する介入を通知する方法を分析する。
関連論文リスト
- Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Data augmentation and explainability for bias discovery and mitigation
in deep learning [0.0]
この論文は、ディープニューラルネットワークにおけるバイアスの影響を調査し、モデルパフォーマンスへの影響を減らす方法を提案する。
最初の部分は、データやモデルのバイアスやエラーの潜在的な原因を分類し、記述することから始まり、特に機械学習パイプラインのバイアスに焦点を当てている。
次の章では、予測と制御を正当化し、モデルを改善する手段として、説明可能なAIの分類と方法について概説する。
論文 参考訳(メタデータ) (2023-08-18T11:02:27Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - LINe: Out-of-Distribution Detection by Leveraging Important Neurons [15.797257361788812]
本稿では,分布内データとOODデータ間のモデル出力の差を解析するための新しい側面を紹介する。
本稿では,分布検出のポストホックアウトのための新しい手法であるLINe( Leveraging Important Neurons)を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:49:05Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Neural Response Interpretation through the Lens of Critical Pathways [52.41018985255681]
本稿では,重要な経路を同定する問題を議論し,入力に対するネットワークの応答の解釈に活用する。
プルーニング由来のスパース経路は、必ずしも重要な入力情報をエンコードするとは限らない。
入力情報の重要な断片を含むスパース経路を確保するため,ニューロンの応答への寄与による経路選択を提案する。
論文 参考訳(メタデータ) (2021-03-31T08:08:41Z) - Causal Autoregressive Flows [4.731404257629232]
自己回帰正規化フローの単純なファミリーと同定可能な因果モデルとの本質的な対応を強調した。
我々は、自己回帰フローアーキテクチャが、因果順序に類似した変数の順序を定義しているという事実を利用して、様々な因果推論タスクを実行するのに適していることを示す。
論文 参考訳(メタデータ) (2020-11-04T13:17:35Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Self-Supervised Relational Reasoning for Representation Learning [5.076419064097733]
自己教師型学習では、ラベルのないデータに対して代替ターゲットを定義することにより、代理目的を達成することを課題とする。
本稿では,学習者が無ラベルデータに暗黙的な情報から信号をブートストラップできる,新たな自己教師型関係推論法を提案する。
提案手法は,標準データセット,プロトコル,バックボーンを用いて,厳密な実験手順に従って評価する。
論文 参考訳(メタデータ) (2020-06-10T14:24:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。