論文の概要: Refining Neural Networks with Compositional Explanations
- arxiv url: http://arxiv.org/abs/2103.10415v1
- Date: Thu, 18 Mar 2021 17:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 14:12:11.694620
- Title: Refining Neural Networks with Compositional Explanations
- Title(参考訳): 構成記述によるニューラルネットワークの精製
- Authors: Huihan Yao, Ying Chen, Qinyuan Ye, Xisen Jin, Xiang Ren
- Abstract要約: 本稿では,モデルの失敗事例に関する人為的な構成説明を収集し,学習モデルの改良を提案する。
提案手法が2つのテキスト分類タスクに有効であることを示す。
- 参考スコア(独自算出の注目度): 31.84868477264624
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks are prone to learning spurious correlations from biased
datasets, and are thus vulnerable when making inferences in a new target
domain. Prior work reveals spurious patterns via post-hoc model explanations
which compute the importance of input features, and further eliminates the
unintended model behaviors by regularizing importance scores with human
knowledge. However, such regularization technique lacks flexibility and
coverage, since only importance scores towards a pre-defined list of features
are adjusted, while more complex human knowledge such as feature interaction
and pattern generalization can hardly be incorporated. In this work, we propose
to refine a learned model by collecting human-provided compositional
explanations on the models' failure cases. By describing generalizable rules
about spurious patterns in the explanation, more training examples can be
matched and regularized, tackling the challenge of regularization coverage. We
additionally introduce a regularization term for feature interaction to support
more complex human rationale in refining the model. We demonstrate the
effectiveness of the proposed approach on two text classification tasks by
showing improved performance in target domain after refinement.
- Abstract(参考訳): ニューラルネットワークは偏りのあるデータセットからスプリアス相関を学習する傾向にあり、新たなターゲット領域で推論を行う場合には脆弱である。
先行研究では、入力特徴の重要性を計算したポストホックモデル説明を通じて素早いパターンを明らかにし、人間の知識で重要度を正規化することによって意図しないモデル行動を排除する。
しかし、このような正規化技術には柔軟性とカバレッジが欠けており、事前定義された特徴のリストに対する重要点のみが調整される一方、特徴の相互作用やパターンの一般化といったより複雑な人間の知識が組み込まれることはほとんどない。
本研究では,モデルの失敗事例に関する人為的な構成説明を収集し,学習モデルの改良を提案する。
説明の中でスプリアスパターンに関する一般的なルールを説明することで、より多くのトレーニング例が一致し、正規化され、正規化カバレッジの課題に取り組むことができる。
さらに,モデルの改良におけるより複雑な人間の理性をサポートするために,機能相互作用の正規化用語を導入する。
本手法は,改良後の対象領域における性能向上を示すことにより,2つのテキスト分類タスクにおける提案手法の有効性を実証する。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Regularization Through Simultaneous Learning: A Case Study on Plant
Classification [0.0]
本稿では,トランスファーラーニングとマルチタスクラーニングの原則に基づく正規化アプローチである同時学習を紹介する。
我々は、ターゲットデータセットであるUFOP-HVDの補助データセットを活用し、カスタマイズされた損失関数でガイドされた同時分類を容易にする。
興味深いことに,本手法は正規化のないモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-22T19:44:57Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Explaining, Evaluating and Enhancing Neural Networks' Learned
Representations [2.1485350418225244]
より効率的で効率的な表現への障害ではなく、いかに説明可能性が助けになるかを示す。
我々は,2つの新しいスコアを定義して,潜伏埋め込みの難易度と難易度を評価する。
表現学習課題の訓練において,提案したスコアを制約として採用することで,モデルの下流性能が向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T19:00:01Z) - Generalizable Information Theoretic Causal Representation [37.54158138447033]
本稿では,観測データから因果表現を学習するために,仮説因果グラフに基づいて相互情報量で学習手順を規則化することを提案する。
この最適化は、因果性に着想を得た学習がサンプルの複雑さを減らし、一般化能力を向上させるという理論的保証を導出する反ファクト的損失を伴う。
論文 参考訳(メタデータ) (2022-02-17T00:38:35Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Influence Tuning: Demoting Spurious Correlations via Instance
Attribution and Instance-Driven Updates [26.527311287924995]
インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
制御された設定では、インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-07T06:59:46Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。