論文の概要: LETA: Learning Transferable Attribution for Generic Vision Explainer
- arxiv url: http://arxiv.org/abs/2312.15359v1
- Date: Sat, 23 Dec 2023 21:49:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 18:28:43.342139
- Title: LETA: Learning Transferable Attribution for Generic Vision Explainer
- Title(参考訳): LETA:Generic Vision Explainerのための伝達可能な属性の学習
- Authors: Guanchu Wang and Yu-Neng Chuang and Fan Yang and Mengnan Du and
Chia-Yuan Chang and Shaochen Zhong and Zirui Liu and Zhaozhuo Xu and Kaixiong
Zhou and Xuanting Cai and Xia Hu
- Abstract要約: 大規模画像データセットの汎用的説明器を開発し、その伝達可能性を活用して、下流タスクの様々な視覚モデルを説明する。
LETAは、ジェネリック・アナトリビューションに対するジェネリック・アナトリビュータの事前トレーニングをガイドし、下流のタスクを説明するために、トランストリビュータのルールベースの適応を導入する。
実験結果から,LETAは下流タスクのデータに対する追加トレーニングを必要とせず,これらのタスクを説明するのに有効であることが示唆された。
- 参考スコア(独自算出の注目度): 78.96465840557056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable machine learning significantly improves the transparency of deep
neural networks~(DNN). However, existing work is constrained to explaining the
behavior of individual model predictions, and lacks the ability to transfer the
explanation across various models and tasks. This limitation results in
explaining various tasks being time- and resource-consuming. To address this
problem, we develop a pre-trained, DNN-based, generic explainer on large-scale
image datasets, and leverage its transferability to explain various vision
models for downstream tasks. In particular, the pre-training of generic
explainer focuses on LEarning Transferable Attribution (LETA). The transferable
attribution takes advantage of the versatile output of the target backbone
encoders to comprehensively encode the essential attribution for explaining
various downstream tasks. LETA guides the pre-training of the generic explainer
towards the transferable attribution, and introduces a rule-based adaptation of
the transferable attribution for explaining downstream tasks, without the need
for additional training on downstream data. Theoretical analysis demonstrates
that the pre-training of LETA enables minimizing the explanation error bound
aligned with the conditional $\mathcal{V}$-information on downstream tasks.
Empirical studies involve explaining three different architectures of vision
models across three diverse downstream datasets. The experiment results
indicate LETA is effective in explaining these tasks without the need for
additional training on the data of downstream tasks.
- Abstract(参考訳): 説明可能な機械学習はディープニューラルネットワークの透明性を大幅に改善する(DNN)。
しかし、既存の作業は個々のモデル予測の振る舞いを説明することに制約されており、様々なモデルやタスク間で説明を伝達する能力に欠ける。
この制限は、時間とリソースを消費する様々なタスクを説明する結果となる。
この問題に対処するため,大規模な画像データセット上で事前学習されたDNNベースの汎用説明器を開発し,その転送可能性を活用して,下流タスクの様々な視覚モデルを説明する。
特に、ジェネリック・スクリプタの事前学習は、Learning Transferable Attribution (LETA)に焦点を当てている。
転送可能な帰属は、ターゲットのバックボーンエンコーダの多彩な出力を利用して、様々な下流タスクを説明するために必要な帰属を包括的にエンコードする。
LETAは、転送可能な属性に対するジェネリック説明器の事前トレーニングをガイドし、下流データに対する追加のトレーニングを必要とせずに、下流タスクを説明するための転送可能な属性のルールベースの適応を導入する。
理論的解析により、LETAの事前学習により、下流タスクにおける条件付き$\mathcal{V}$-informationと結びついた説明誤差を最小化できることが示された。
実証的研究では、3つの異なる下流データセットにわたるビジョンモデルの3つの異なるアーキテクチャを説明する。
実験の結果,LETAは下流タスクのデータに関する追加のトレーニングを必要とせず,これらのタスクを説明するのに有効であることが示唆された。
関連論文リスト
- LaVin-DiT: Large Vision Diffusion Transformer [99.98106406059333]
LaVin-DiTは、20以上のコンピュータビジョンタスクを生成フレームワークで扱うために設計された、スケーラブルで統一された基盤モデルである。
視覚タスクの生成性能を最適化するための重要なイノベーションを紹介する。
このモデルは0.1Bから3.4Bのパラメータに拡張され、様々な視覚タスクにまたがる相当なスケーラビリティと最先端の性能を示す。
論文 参考訳(メタデータ) (2024-11-18T12:05:27Z) - In-Context Learning Improves Compositional Understanding of Vision-Language Models [2.762909189433944]
合成画像理解は、トレーニングデータに存在する物体バイアスのため、かなり難しい課題である。
コントラストモデルと生成モデルを比較し、アーキテクチャの違い、事前学習データ、トレーニングタスクと損失を分析します。
提案手法は,複数の構成的理解データセットにまたがるベースラインモデルより優れている。
論文 参考訳(メタデータ) (2024-07-22T09:03:29Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Multi-task learning from fixed-wing UAV images for 2D/3D city modeling [0.0]
マルチタスク学習(Multi-task learning)は、トレーニングデータに制限のある複数のタスクを含むシーン理解のアプローチである。
インフラ開発、交通監視、スマート3D都市、変更検出などの都市管理アプリケーションでは、自動マルチタスクデータ分析が必要である。
本研究では,2D/3D都市モデリングのための固定翼UAV画像を用いたマルチタスク学習手法の性能評価のための共通フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-25T14:45:42Z) - Multi-Task Variational Information Bottleneck [8.55293326934818]
マルチタスク学習(MTL)は、機械学習と人工知能において重要な課題である。
本稿では、変動情報ボトルネック(VIB)のアーキテクチャに基づくMTLモデルを提案する。
敵攻撃下での3つの公開データセットの広範囲な観測により、提案モデルが最先端のアルゴリズムと競合していることが示されている。
論文 参考訳(メタデータ) (2020-07-01T09:06:20Z) - Understanding and Improving Information Transfer in Multi-Task Learning [14.43111978531182]
すべてのタスクに対して共有モジュール,各タスクに対して別個の出力モジュールを備えたアーキテクチャについて検討する。
タスクデータ間の不一致が負の転送(または性能の低下)を引き起こし、ポジティブな転送に十分な条件を提供することを示す。
理論的洞察から着想を得た結果,タスクの埋め込みレイヤの整合がマルチタスクトレーニングやトランスファー学習のパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-05-02T23:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。