論文の概要: Toward a Unified Framework for Debugging Gray-box Models
- arxiv url: http://arxiv.org/abs/2109.11160v1
- Date: Thu, 23 Sep 2021 06:12:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:49:37.945951
- Title: Toward a Unified Framework for Debugging Gray-box Models
- Title(参考訳): Gray-boxモデルデバッグのための統一フレームワーク
- Authors: Andrea Bontempelli, Fausto Giunchiglia, Andrea Passerini, Stefano Teso
- Abstract要約: 概念ベースグレーボックスモデル(GBM)について検討する。
これらのモデルは、入力に現れるタスク関連概念を取得し、その後、概念アクティベーションを集約して予測を計算する。
この研究は、GBMにおいて、概念と集約関数の両方が異なるバグによって影響を受けるという観察に由来する。
- 参考スコア(独自算出の注目度): 28.44179818430489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We are concerned with debugging concept-based gray-box models (GBMs). These
models acquire task-relevant concepts appearing in the inputs and then compute
a prediction by aggregating the concept activations. This work stems from the
observation that in GBMs both the concepts and the aggregation function can be
affected by different bugs, and that correcting these bugs requires different
kinds of corrective supervision. To this end, we introduce a simple schema for
identifying and prioritizing bugs in both components, discuss possible
implementations and open problems. At the same time, we introduce a new loss
function for debugging the aggregation step that extends existing approaches to
align the model's explanations to GBMs by making them robust to how the
concepts change during training.
- Abstract(参考訳): 概念ベースグレーボックスモデル(GBM)のデバッグについて検討している。
これらのモデルは、入力に現れるタスク関連概念を取得し、概念アクティベーションを集約して予測を計算する。
この研究は、GBMにおいて、概念と集約関数の両方が異なるバグの影響を受け得ること、そしてこれらのバグを修正するには異なる種類の補正監督が必要であることに由来する。
この目的のために,両コンポーネントのバグを識別し,優先順位付けし,可能な実装とオープン問題を議論するためのシンプルなスキーマを導入する。
同時に、学習中に概念がどのように変化するかに堅牢にすることで、モデルの説明をgbmに合わせるための既存のアプローチを拡張する、集約ステップをデバッグするための新しい損失関数を導入する。
関連論文リスト
- Separable Multi-Concept Erasure from Diffusion Models [52.51972530398691]
大規模拡散モデルから安全でない概念を排除するために,分離可能なマルチコンセプト消去器(SepME)を提案する。
後者は最適化可能なモデルウェイトを分離し、各ウェイトインクリメントは特定の概念の消去に対応する。
広範囲にわたる実験は, 概念の排除, モデル性能の保存, 各種概念の消去・回復における柔軟性の確保に, アプローチの有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-03T11:10:57Z) - Benchmarking and Enhancing Disentanglement in Concept-Residual Models [4.177318966048984]
概念ボトルネックモデル (CBM) は、まず意味論的に意味のある一連の特徴を予測する解釈可能なモデルである。
CBMの性能はエンジニアリングされた機能に依存しており、不完全な概念のセットに苦しむことがある。
本研究は,情報漏洩を解消するための3つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-30T21:07:26Z) - Auxiliary Losses for Learning Generalizable Concept-based Models [5.4066453042367435]
コンセプト・ボトルネック・モデル (Concept Bottleneck Models, CBM) は導入以来人気を集めている。
CBMは基本的に、モデルの潜在空間を人間に理解可能な高レベルな概念に制限する。
本稿では,協調型コンセプション・ボトルネックモデル(coop-CBM)を提案し,性能トレードオフを克服する。
論文 参考訳(メタデータ) (2023-11-18T15:50:07Z) - Learning to Receive Help: Intervention-Aware Concept Embedding Models [46.7616863339095]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルの概念セットを使用して予測を構築し、説明することによって、ニューラルネットワークの不透明さに対処する。
近年の研究では、介入効果は概念が介入される順序に大きく依存していることが示されている。
IntCEM(Intervention-Aware Concept Embedding Model)は,テスト時間介入に対するモデルの受容性を改善する新しいCBMアーキテクチャとトレーニングパラダイムである。
論文 参考訳(メタデータ) (2023-09-29T02:04:24Z) - Mix-of-Show: Decentralized Low-Rank Adaptation for Multi-Concept
Customization of Diffusion Models [72.67967883658957]
低ランク適応(LoRA)を用いた新しい概念に対して、公共の大規模テキスト・画像拡散モデルを簡単にカスタマイズできる。
複数のカスタマイズされた概念を共同でサポートするために複数の概念LoRAを利用することは、課題である。
我々は、分散化されたマルチコンセプトカスタマイズの課題に対処するMix-of-Showと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T17:58:16Z) - Concept-Centric Transformers: Enhancing Model Interpretability through
Object-Centric Concept Learning within a Shared Global Workspace [1.6574413179773757]
概念中心変換器は、解釈可能性のための共有グローバルワークスペースの単純かつ効果的な構成である。
本モデルでは,すべての問題に対して,すべてのベースラインの分類精度が向上することを示す。
論文 参考訳(メタデータ) (2023-05-25T06:37:39Z) - Translational Concept Embedding for Generalized Compositional Zero-shot
Learning [73.60639796305415]
一般合成ゼロショット学習は、ゼロショット方式で属性オブジェクト対の合成概念を学習する手段である。
本稿では,これら2つの課題を統一的なフレームワークで解決するために,翻訳概念の埋め込み(translational concept embedded)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-20T21:27:51Z) - CARE: Coherent Actionable Recourse based on Sound Counterfactual
Explanations [0.0]
本稿では,モデルおよびユーザレベルのデシダータに対処するモジュール型説明フレームワークであるCAREを紹介する。
モデルに依存しないアプローチとして、CAREはブラックボックスモデルに対して複数の多様な説明を生成する。
論文 参考訳(メタデータ) (2021-08-18T15:26:59Z) - VisBERT: Hidden-State Visualizations for Transformers [66.86452388524886]
VisBERTは,複数の質問応答のタスクに対して,BERT内のコンテキストトークン表現を可視化するツールである。
VisBERTは、モデルの内部状態に関する洞察を得て、推論ステップや潜在的な欠点を探索することを可能にする。
論文 参考訳(メタデータ) (2020-11-09T15:37:43Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。