論文の概要: Using Explanations to Guide Models
- arxiv url: http://arxiv.org/abs/2303.11932v1
- Date: Tue, 21 Mar 2023 15:34:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 14:30:46.614753
- Title: Using Explanations to Guide Models
- Title(参考訳): 解説を用いたガイドモデル
- Authors: Sukrut Rao, Moritz B\"ohle, Amin Parchami-Araghi, Bernt Schiele
- Abstract要約: モデルガイダンスは、時にはモデルパフォーマンスも改善できることを示す。
本研究では,物体の特徴に着目したモデルの有効性を示す新しいエネルギー損失を提案する。
また、バウンディングボックスアノテーションのわずかな部分でも、これらのゲインが達成可能であることも示しています。
- 参考スコア(独自算出の注目度): 68.64377323216817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are highly performant, but might base their decision on
spurious or background features that co-occur with certain classes, which can
hurt generalization. To mitigate this issue, the usage of 'model guidance' has
gained popularity recently: for this, models are guided to be "right for the
right reasons" by regularizing the models' explanations to highlight the right
features. Experimental validation of these approaches has thus far however been
limited to relatively simple and / or synthetic datasets. To gain a better
understanding of which model-guiding approaches actually transfer to more
challenging real-world datasets, in this work we conduct an in-depth evaluation
across various loss functions, attribution methods, models, and 'guidance
depths' on the PASCAL VOC 2007 and MS COCO 2014 datasets, and show that model
guidance can sometimes even improve model performance. In this context, we
further propose a novel energy loss, show its effectiveness in directing the
model to focus on object features. We also show that these gains can be
achieved even with a small fraction (e.g. 1%) of bounding box annotations,
highlighting the cost effectiveness of this approach. Lastly, we show that this
approach can also improve generalization under distribution shifts. Code will
be made available.
- Abstract(参考訳): ディープニューラルネットワークは高い性能を持つが、その決定は特定のクラスと共起する刺激的または背景的特徴に基づいており、一般化を損なう可能性がある。
この問題を軽減するため、近年「モデルガイダンス」の使用が人気を集めている。このために、モデルの説明を規則化し、適切な機能を強調することで、モデルが「正しい理由のために正しい」ようにガイドされている。
これらのアプローチの実験的検証は、今のところ比較的単純なデータセットや合成データセットに限られている。
本研究は、モデル誘導手法が現実のより困難なデータセットに実際に移行するかどうかをよりよく理解するために、pascal voc 2007およびms coco 2014データセット上で、様々な損失関数、帰属方法、モデル、および'ガイド深さ'について深い評価を行い、モデルガイダンスが時々、モデル性能を改善できることを示します。
この文脈で、我々はさらに新しいエネルギー損失を提案し、モデルにオブジェクトの特徴に焦点を当てるように指示する効果を示す。
また,この手法のコスト効果を浮き彫りにしたバウンディングボックスアノテーションのごく一部(例:1%)でも,これらの成果を実現できることを示した。
最後に,このアプローチは分布シフト下での一般化も改善できることを示す。
コードは利用可能になる。
関連論文リスト
- Effective Guidance for Model Attention with Simple Yes-no Annotations [22.186065674971083]
CRAYONは最先端のパフォーマンスを実現し、3つのベンチマークデータセットで12メソッドを上回っている。
我々はCRAYON(Correcting Reasoning with s of Yes Or No)を紹介し、モデルの注意を正すための効果的でスケーラブルで実用的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-29T17:53:33Z) - Enhancement of Approximation Spaces by the Use of Primals and Neighborhood [0.0]
近隣と原始」からのインスピレーションを引き出す4つの新しい一般化された粗集合モデルを導入する。
我々は、現在のモデルは、粗い集合モデルに関連するほとんどすべての重要な側面を保存できると主張している。
また、我々の日常的な健康に関する問題に対して定義する新たな戦略が、より正確な発見をもたらすことも示している。
論文 参考訳(メタデータ) (2024-10-23T18:49:13Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Robust Fine-Tuning of Vision-Language Models for Domain Generalization [6.7181844004432385]
ファンデーションモデルは、分散シフトの下で、印象的なゼロショット推論能力とロバスト性を持っている。
一般的な視覚言語基盤モデルCLIPの微調整のための新しいレシピを提案する。
私たちの実験では、ゼロショットCLIPは、より複雑なベンチマークでトレーニング済みのビジョンモデルのパフォーマンスと一致しないが、少数ショットCLIPの微調整は、ビジョンのみのパフォーマンスよりも優れていることを示した。
論文 参考訳(メタデータ) (2023-11-03T20:50:40Z) - Earning Extra Performance from Restrictive Feedbacks [41.05874087063763]
モデルチューニング問題の形式を記述するために,rerestriCTive feeddbacks (EXPECTED) から emphEarning eXtra PerformancE という課題を設定した。
モデルプロバイダの目標は、最終的にフィードバックを利用することで、ローカルユーザに対して満足のいくモデルを提供することです。
本稿では,パラメータ分布を探索し,モデルパラメータに関するモデル性能の幾何を特徴付けることを提案する。
論文 参考訳(メタデータ) (2023-04-28T13:16:54Z) - SlimSeg: Slimmable Semantic Segmentation with Boundary Supervision [54.16430358203348]
本稿では,単純なスリム化可能なセマンティックセマンティックセマンティクス(SlimSeg)法を提案する。
提案するSlimSegは,様々な主流ネットワークを用いて,計算コストの動的調整と性能向上を実現するフレキシブルなモデルを生成することができることを示す。
論文 参考訳(メタデータ) (2022-07-13T14:41:05Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。