論文の概要: Self-learn to Explain Siamese Networks Robustly
- arxiv url: http://arxiv.org/abs/2109.07371v1
- Date: Wed, 15 Sep 2021 15:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 17:43:49.615403
- Title: Self-learn to Explain Siamese Networks Robustly
- Title(参考訳): 自己学習でシームズネットワークをロバストに説明
- Authors: Chao Chen, Yifan Shen, Guixiang Ma, Xiangnan Kong, Srinivas
Rangarajan, Xi Zhang, Sihong Xie
- Abstract要約: 2つのオブジェクトを比較する学習は、特にラベル付きデータが不足している場合、デジタル法医学、顔認識、脳ネットワーク分析で使用される。
これらのアプリケーションは、公正さや不均衡といった社会的価値を含む高い意思決定を行うため、学習されたモデルを説明することが重要である。
- 参考スコア(独自算出の注目度): 22.913886901196353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning to compare two objects are essential in applications, such as
digital forensics, face recognition, and brain network analysis, especially
when labeled data is scarce and imbalanced. As these applications make
high-stake decisions and involve societal values like fairness and
transparency, it is critical to explain the learned models. We aim to study
post-hoc explanations of Siamese networks (SN) widely used in learning to
compare. We characterize the instability of gradient-based explanations due to
the additional compared object in SN, in contrast to architectures with a
single input instance. We propose an optimization framework that derives global
invariance from unlabeled data using self-learning to promote the stability of
local explanations tailored for specific query-reference pairs. The
optimization problems can be solved using gradient descent-ascent (GDA) for
constrained optimization, or SGD for KL-divergence regularized unconstrained
optimization, with convergence proofs, especially when the objective functions
are nonconvex due to the Siamese architecture. Quantitative results and case
studies on tabular and graph data from neuroscience and chemical engineering
show that the framework respects the self-learned invariance while robustly
optimizing the faithfulness and simplicity of the explanation. We further
demonstrate the convergence of GDA experimentally.
- Abstract(参考訳): 2つのオブジェクトを比較するための学習は、デジタル法医学、顔認識、ブレインネットワーク分析など、特にラベル付きデータの不足や不均衡といったアプリケーションで必須です。
これらのアプリケーションは、高い意思決定を行い、公平さや透明性といった社会的な価値を伴うため、学習したモデルを説明することが重要です。
本研究の目的は,学習中に広く用いられているシャムネットワーク(sn)のポストホックな説明を比較検討することである。
1つの入力インスタンスを持つアーキテクチャとは対照的に、SNにおける比較対象の追加による勾配に基づく説明の不安定性を特徴付ける。
本稿では,自己学習を用いたラベルなしデータから大域的不分散を導出し,特定のクエリ参照ペアに適した局所的説明の安定性を促進する最適化フレームワークを提案する。
最適化問題は、制約付き最適化のための勾配降下度(GDA)や、KL偏差正規化非制約最適化のためのSGDを用いて、収束証明(特にシームズアーキテクチャによる目的関数が非凸である場合)を用いて解くことができる。
神経科学と化学工学のグラフデータおよびグラフデータに関する定量的研究は、このフレームワークが自己学習した不変性を尊重し、説明の忠実さと単純さを強く最適化していることを示している。
さらに,gdaの収束を実験的に実証する。
関連論文リスト
- Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Semi-parametric Expert Bayesian Network Learning with Gaussian Processes
and Horseshoe Priors [26.530289799110562]
本稿では,エキスパートベイズネットワーク(SEBN)におけるセミパラメトリック・レラ・オンシップの学習モデルを提案する。
我々は、最小限の非リン耳成分を導入する前に、ガウスのプロシースとホースシューを使用する。
実世界の未知のデータセットでは、ユーザ入力に対応するために多様なグラフを作成し、識別可能性の問題に対処し、解釈可能性を高める。
論文 参考訳(メタデータ) (2024-01-29T18:57:45Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Discovering Dynamic Causal Space for DAG Structure Learning [64.763763417533]
本稿では,DAG構造学習のための動的因果空間であるCASPERを提案する。
グラフ構造をスコア関数に統合し、因果空間における新しい尺度として、推定真理DAGと基底真理DAGの因果距離を忠実に反映する。
論文 参考訳(メタデータ) (2023-06-05T12:20:40Z) - Provable Robust Saliency-based Explanations [16.217374556142484]
R2ETは, モデル精度を維持しつつ, ステルス攻撃下でのロバスト性が高いことを示す。
ネットワークアーキテクチャとデータモダリティの幅広い実験により、R2ETはモデル精度を維持しながら、ステルス攻撃下でのロバスト性が高い説明が得られることが示された。
論文 参考訳(メタデータ) (2022-12-28T22:05:32Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Are conditional GANs explicitly conditional? [0.0]
本稿では,条件付きジェネレーティブ・アドバイザリ・ネットワーク(cGAN)に対する2つのコントリビューションを提案する。
最初の主な貢献は、cGANの分析であり、それらが明示的に条件付きでないことを示すものである。
第2のコントリビューションは、アコントラリオと呼ばれる新しい手法であり、敵アーキテクチャの両部分の条件性を明示的にモデル化する。
論文 参考訳(メタデータ) (2021-06-28T22:49:27Z) - Bounding Information Leakage in Machine Learning [26.64770573405079]
本稿では,情報漏洩の基本的な境界について検討する。
最悪の会員推論攻撃の成功率を特定し、拘束します。
感度の高い属性とモデルパラメータの間の相互情報の境界を導出する。
論文 参考訳(メタデータ) (2021-05-09T08:49:14Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。