論文の概要: Bayesian-guided Label Mapping for Visual Reprogramming
- arxiv url: http://arxiv.org/abs/2410.24018v1
- Date: Thu, 31 Oct 2024 15:20:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:02:42.342818
- Title: Bayesian-guided Label Mapping for Visual Reprogramming
- Title(参考訳): ビジュアルリプログラミングのためのベイズ誘導ラベルマッピング
- Authors: Chengyi Cai, Zesheng Ye, Lei Feng, Jianzhong Qi, Feng Liu,
- Abstract要約: 1対1のマッピングは、事前訓練されたラベルと下流のラベルの間の複雑な関係を見落としてしまう可能性がある。
この観測により,ベイズ誘導ラベルマッピング法(BLM)を提案する。
事前訓練されたビジョンモデル(ResNeXtなど)とビジョン言語モデル(CLIPなど)の両方で実施された実験は、既存のラベルマッピング手法よりもBLMの優れた性能を示す。
- 参考スコア(独自算出の注目度): 20.27639343292564
- License:
- Abstract: Visual reprogramming (VR) leverages the intrinsic capabilities of pretrained vision models by adapting their input or output interfaces to solve downstream tasks whose labels (i.e., downstream labels) might be totally different from the labels associated with the pretrained models (i.e., pretrained labels). When adapting the output interface, label mapping methods transform the pretrained labels to downstream labels by establishing a gradient-free one-to-one correspondence between the two sets of labels. However, in this paper, we reveal that one-to-one mappings may overlook the complex relationship between pretrained and downstream labels. Motivated by this observation, we propose a Bayesian-guided Label Mapping (BLM) method. BLM constructs an iteratively-updated probabilistic label mapping matrix, with each element quantifying a pairwise relationship between pretrained and downstream labels. The assignment of values to the constructed matrix is guided by Bayesian conditional probability, considering the joint distribution of the downstream labels and the labels predicted by the pretrained model on downstream samples. Experiments conducted on both pretrained vision models (e.g., ResNeXt) and vision-language models (e.g., CLIP) demonstrate the superior performance of BLM over existing label mapping methods. The success of BLM also offers a probabilistic lens through which to understand and analyze the effectiveness of VR. Our code is available at https://github.com/tmlr-group/BayesianLM.
- Abstract(参考訳): ビジュアル・リプログラミング(VR)は、事前訓練されたモデル(例えば、事前訓練されたラベル)に関連するラベルと全く異なるラベルを持つダウンストリームタスクを解決するために、入力または出力インターフェースを適用することで、事前訓練されたビジョンモデルの本質的な能力を利用する。
出力インタフェースを適用する際、ラベルマッピング法は、2つのラベルセット間の勾配のない1対1対応を確立することにより、事前訓練されたラベルを下流ラベルに変換する。
しかし,本稿では,事前学習されたラベルと下流ラベルの複雑な関係を1対1のマッピングで見落としている可能性があることを明らかにした。
この観測により,ベイズ誘導ラベルマッピング法(BLM)を提案する。
BLMは反復的に更新された確率ラベルマッピング行列を構築し、各要素は事前訓練されたラベルと下流ラベルのペア関係を定量化する。
構築された行列に対する値の割り当ては,下流ラベルと下流サンプルの事前学習モデルにより予測されたラベルの連成分布を考慮したベイズ条件付き確率で導かれる。
事前訓練されたビジョンモデル(例えばResNeXt)とビジョン言語モデル(例えばCLIP)の両方で実施された実験は、既存のラベルマッピング手法よりもBLMの優れた性能を示す。
BLMの成功はまた、VRの有効性を理解し分析するための確率レンズを提供する。
私たちのコードはhttps://github.com/tmlr-group/BayesianLMで公開されています。
関連論文リスト
- Deep Partial Multi-Label Learning with Graph Disambiguation [27.908565535292723]
grAph-disambIguatioN (PLAIN) を用いた新しいディープ部分多重ラベルモデルを提案する。
具体的には、ラベルの信頼性を回復するために、インスタンスレベルとラベルレベルの類似性を導入する。
各トレーニングエポックでは、ラベルがインスタンスとラベルグラフに伝播し、比較的正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-05-10T04:02:08Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Semantic-Aware Representation Blending for Multi-Label Image Recognition
with Partial Labels [86.17081952197788]
そこで我々は,未知のラベルを補うために,異なる画像にカテゴリ固有の表現をブレンドして,既知のラベルの情報を伝達することを提案する。
MS-COCO、Visual Genome、Pascal VOC 2007データセットの実験は、提案されたSARBフレームワークが、現在の主要な競合相手よりも優れたパフォーマンスを得ることを示している。
論文 参考訳(メタデータ) (2022-03-04T07:56:16Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Adaptive Label Smoothing To Regularize Large-Scale Graph Training [46.00927775402987]
本研究では, 適応ラベル平滑化法 (ALS) を提案する。
ALSはノードラベルを伝播して、前処理ステップで近隣ラベルの分布を集約し、その後、最適なスムーズなラベルをオンラインで更新して、特定のグラフ構造に適合させる。
論文 参考訳(メタデータ) (2021-08-30T23:51:31Z) - A Theory-Driven Self-Labeling Refinement Method for Contrastive
Representation Learning [111.05365744744437]
教師なしのコントラスト学習は、正のイメージの作物と、負のイメージの作物とをラベル付けする。
本研究は, コントラスト学習において, 不正確なラベル割り当てがセマンティック・インスタンス識別の一般化を著しく損なうことを最初に証明する。
この理論に触発されて、コントラスト学習のための新しい自己ラベル改善手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T14:24:52Z) - Improving Pretrained Models for Zero-shot Multi-label Text
Classification through Reinforced Label Hierarchy Reasoning [18.531022315325583]
ラベル階層の探索は、ゼロショットのマルチラベルテキスト分類問題に取り組むための有望なアプローチとなっている。
トレーニング中の階層内のラベル間の相互依存性を促進するために,RLHR(Reinforced Label Hierarchy Reasoning)アプローチを提案する。
論文 参考訳(メタデータ) (2021-04-04T19:14:09Z) - Group-aware Label Transfer for Domain Adaptive Person Re-identification [179.816105255584]
Unsupervised Adaptive Domain (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインデータセットで訓練されたモデルを、さらなるアノテーションなしでターゲットドメインデータセットに適応することを目的としている。
最も成功したUDA-ReIDアプローチは、クラスタリングに基づく擬似ラベル予測と表現学習を組み合わせて、2つのステップを交互に実行する。
疑似ラベル予測と表現学習のオンラインインタラクションと相互促進を可能にするグループ認識ラベル転送(GLT)アルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-03-23T07:57:39Z) - Label Confusion Learning to Enhance Text Classification Models [3.0251266104313643]
ラベル混乱モデル(lcm)はラベル間の意味的重複を捉えるためにラベル混乱を学習する。
lcmは、元のホットラベルベクトルを置き換えるより優れたラベル分布を生成することができる。
5つのテキスト分類ベンチマークデータセットの実験により、広く使われているディープラーニング分類モデルに対するLCMの有効性が明らかにされた。
論文 参考訳(メタデータ) (2020-12-09T11:34:35Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。