論文の概要: Analyzing Effects of Mixed Sample Data Augmentation on Model
Interpretability
- arxiv url: http://arxiv.org/abs/2303.14608v1
- Date: Sun, 26 Mar 2023 03:01:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:37:14.668861
- Title: Analyzing Effects of Mixed Sample Data Augmentation on Model
Interpretability
- Title(参考訳): 混合サンプルデータの増大がモデル解釈可能性に及ぼす影響
- Authors: Soyoun Won, Sung-Ho Bae, Seong Tae Kim
- Abstract要約: モデルの学習における解釈可能性とデータ拡張戦略の関係について検討する。
実験により、混合サンプルデータ拡張で訓練されたモデルは、解釈可能性の低下を示すことが示された。
- 参考スコア(独自算出の注目度): 15.078314022161237
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data augmentation strategies are actively used when training deep neural
networks (DNNs). Recent studies suggest that they are effective at various
tasks. However, the effect of data augmentation on DNNs' interpretability is
not yet widely investigated. In this paper, we explore the relationship between
interpretability and data augmentation strategy in which models are trained
with different data augmentation methods and are evaluated in terms of
interpretability. To quantify the interpretability, we devise three evaluation
methods based on alignment with humans, faithfulness to the model, and the
number of human-recognizable concepts in the model. Comprehensive experiments
show that models trained with mixed sample data augmentation show lower
interpretability, especially for CutMix and SaliencyMix augmentations. This new
finding suggests that it is important to carefully adopt mixed sample data
augmentation due to the impact on model interpretability, especially in
mission-critical applications.
- Abstract(参考訳): データ拡張戦略は、ディープニューラルネットワーク(DNN)のトレーニングに積極的に使用される。
近年の研究では,様々な課題に有効であることが示唆されている。
しかし,データ拡張がDNNの解釈可能性に与える影響については,まだ広く研究されていない。
本稿では,モデルが異なるデータ拡張法で訓練され,解釈可能性の観点から評価されるデータ拡張戦略と解釈可能性の関係について検討する。
解釈可能性の定量化のために,人間との整合,モデルへの忠実性,モデルにおける認識可能な概念の数という3つの評価手法を考案する。
総合的な実験によると、混合サンプルデータ拡張で訓練されたモデルは、特にCutMixとSaliencyMixの拡張において、解釈可能性の低下を示す。
この新たな発見は、特にミッションクリティカルなアプリケーションにおいて、モデル解釈可能性に影響を及ぼすため、混合サンプルデータ拡張を慎重に採用することが重要であることを示唆している。
関連論文リスト
- Increasing Interpretability of Neural Networks By Approximating Human Visual Saliency [4.061099610106136]
近年の進歩は、個々の画像内の人間の定義した塩分濃度領域への誘導モデルが、性能と解釈可能性を大幅に向上させることを示している。
そこで本研究では,人体塩分からの解釈可能性と性能向上を維持しつつ,80%の人体アノテーションデータを削減するために,人体塩分取り込みと能動的学習の組み合わせ戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T15:42:27Z) - LMD3: Language Model Data Density Dependence [78.76731603461832]
我々は,学習データ密度推定に基づいて,言語モデルタスクのパフォーマンスを個別の例レベルで解析する手法を開発した。
微調整データに対する制御的介入としてパラフレーズを用いた実験は、特定のテストクエリに対するトレーニング分布のサポートの増加が、測定可能な密度の増加をもたらすことを示した。
我々は,学習データのサブセットに対象モデルの予測が依存していることの統計的証拠を提供することができると結論付けた。
論文 参考訳(メタデータ) (2024-05-10T09:03:27Z) - The Mirrored Influence Hypothesis: Efficient Data Influence Estimation by Harnessing Forward Passes [30.30769701138665]
我々は、訓練データとテストデータの間の相互影響を浮き彫りにして、ミラーレッド影響仮説を導入し、探求する。
具体的には、テスト予測に対するトレーニングデータの影響を評価することは、等価だが逆問題として再定義することができることを示唆している。
トレーニングポイント毎に前方パスとペアを組むことで,特定のテストサンプルの勾配を計算し,トレーニングデータの影響を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-14T03:43:05Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Measuring and Improving Attentiveness to Partial Inputs with Counterfactuals [91.59906995214209]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Causal Inference via Nonlinear Variable Decorrelation for Healthcare
Applications [60.26261850082012]
線形および非線形共振の両方を扱う可変デコリレーション正規化器を用いた新しい手法を提案する。
我々は、モデル解釈可能性を高めるために、元の特徴に基づくアソシエーションルールマイニングを用いた新しい表現として、アソシエーションルールを採用する。
論文 参考訳(メタデータ) (2022-09-29T17:44:14Z) - Improving Prediction of Cognitive Performance using Deep Neural Networks
in Sparse Data [2.867517731896504]
MIDUS(Midlife in the United States)の観察・コホート研究から得られたデータを用いて,エグゼクティブ機能とエピソード記憶測定をモデル化した。
ディープニューラルネットワーク(DNN)モデルは、認知パフォーマンス予測タスクの中で一貫して最高である。
論文 参考訳(メタデータ) (2021-12-28T22:23:08Z) - Influence Tuning: Demoting Spurious Correlations via Instance
Attribution and Instance-Driven Updates [26.527311287924995]
インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
制御された設定では、インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-07T06:59:46Z) - Evaluating the Interpretability of Generative Models by Interactive
Reconstruction [30.441247705313575]
生成モデル表現の人間解釈可能性の定量化を課題とする。
このタスクのパフォーマンスは、ベースラインアプローチよりも、絡み合ったモデルと絡み合ったモデルをはるかに確実に区別する。
論文 参考訳(メタデータ) (2021-02-02T02:38:14Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。