論文の概要: IOTA: Corrective Knowledge-Guided Prompt Learning via Black-White Box Framework
- arxiv url: http://arxiv.org/abs/2601.20526v1
- Date: Wed, 28 Jan 2026 12:03:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.919657
- Title: IOTA: Corrective Knowledge-Guided Prompt Learning via Black-White Box Framework
- Title(参考訳): IOTA: Black-White Boxフレームワークによる訂正的知識ガイド型プロンプト学習
- Authors: Shaokun Wang, Yifan Yu, Yuhang He, Weili Guan, Yihong Gong,
- Abstract要約: 我々は,事前学習したモデルを下流タスクに適応させるための新しいブラックホワイトbOxprompT leArningフレームワーク(IOTA)を提案する。
IOTAは、データ駆動のBlack Boxモジュールと知識駆動のWhite Boxモジュールを統合して、下流のタスク適応を行う。
- 参考スコア(独自算出の注目度): 57.66924056568018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, adapting pre-trained models to downstream tasks has attracted increasing interest. Previous Parameter-Efficient-Tuning (PET) methods regard the pre-trained model as an opaque Black Box model, relying purely on data-driven optimization and underutilizing their inherent prior knowledge. This oversight limits the models' potential for effective downstream task adaptation. To address these issues, we propose a novel black-whIte bOx prompT leArning framework (IOTA), which integrates a data-driven Black Box module with a knowledge-driven White Box module for downstream task adaptation. Specifically, the White Box module derives corrective knowledge by contrasting the wrong predictions with the right cognition. This knowledge is verbalized into interpretable human prompts and leveraged through a corrective knowledge-guided prompt selection strategy to guide the Black Box module toward more accurate predictions. By jointly leveraging knowledge- and data-driven learning signals, IOTA achieves effective downstream task adaptation. Experimental results on 12 image classification benchmarks under few-shot and easy-to-hard adaptation settings demonstrate the effectiveness of corrective knowledge and the superiority of our method over state-of-the-art methods.
- Abstract(参考訳): 近年、下流タスクに事前訓練されたモデルを適用することへの関心が高まっている。
従来のパラメータ・効率・チューニング(PET)手法は、事前学習されたモデルを不透明なブラックボックスモデルとみなし、純粋にデータ駆動の最適化に依存し、それら固有の事前知識を弱めている。
この監視は、効果的な下流タスク適応のためのモデルのポテンシャルを制限する。
これらの課題に対処するために,データ駆動型Black Boxモジュールと知識駆動型White Boxモジュールを統合し,下流タスク適応のための新しいブラックwhIte bOx prompT leArningフレームワーク(IOTA)を提案する。
具体的には、ホワイトボックスモジュールは、間違った予測と正しい認識を対比することで、正しい知識を導き出す。
この知識は解釈可能な人間のプロンプトに言語化され、ブラックボックスモジュールをより正確な予測に向けて導くための修正的な知識誘導のプロンプト選択戦略を通じて活用される。
知識とデータ駆動学習信号の併用により、IOTAは効果的な下流タスク適応を実現する。
12の画像分類ベンチマーク実験の結果, 精度, 精度, 精度, 精度が向上し, 精度が向上した。
関連論文リスト
- Tuning without Peeking: Provable Privacy and Generalization Bounds for LLM Post-Training [49.75298684433045]
BBoxERはトレーニングデータの暗黙的な圧縮を通じて情報ボトルネックを誘導する。
我々は、データ中毒攻撃、および抽出攻撃に対する非空き一般化境界と、差分プライバシーに対する強力な理論的保証を提供する。
論文 参考訳(メタデータ) (2025-07-02T14:29:30Z) - CorDA: Context-Oriented Decomposition Adaptation of Large Language Models for Task-Aware Parameter-Efficient Fine-tuning [101.81127587760831]
現在の微調整手法は、学習すべき下流タスクのコンテキストや、維持すべき重要な知識のコンテキストに広く適用できるアダプタを構築している。
学習可能なタスク対応アダプタを構築するコンテキスト指向の分解適応手法であるCorDAを提案する。
本手法は,知識保存型適応と指導レビュー型適応の2つの選択肢を実現する。
論文 参考訳(メタデータ) (2024-06-07T19:10:35Z) - StochCA: A Novel Approach for Exploiting Pretrained Models with Cross-Attention [2.66269503676104]
トランスフォーマーアーキテクチャに特有なクロスアテンション(StochCA)と呼ばれる新しい微調整手法を提案する。
この方法はトランスフォーマーの自己保持機構を変更し、微調整中に事前学習したモデルからの知識を選択的に活用する。
両領域の最先端アプローチに対するStochCAの優位性について検討した。
論文 参考訳(メタデータ) (2024-02-25T13:53:49Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - Curriculum Guided Domain Adaptation in the Dark [0.0]
ダークのドメイン適応は、ソースデータやソースモデルパラメータにアクセスせずに、ブラックボックスのソーストレーニングされたモデルをラベルなしのターゲットドメインに適応することを目的としている。
本稿では,対象モデルを段階的に学習するためのカリキュラム指導型適応手法であるCABBについて述べる。
本手法は,二分岐ネットワークの協調学習を利用して,確認バイアスによる誤差の蓄積を抑制する。
論文 参考訳(メタデータ) (2023-08-02T05:47:56Z) - Enhancing Black-Box Few-Shot Text Classification with Prompt-Based Data
Augmentation [42.05617728412819]
大規模言語モデルの勾配にアクセスすることなく、少数ショットのテキスト分類を最適化する方法を示す。
我々のアプローチはBT-Classifierと呼ばれ、最先端のブラックボックス学習者よりもはるかに優れています。
論文 参考訳(メタデータ) (2023-05-23T07:54:34Z) - Black-box Prompt Learning for Pre-trained Language Models [18.17029934303874]
この研究は、与えられた入力の出力を除いて、事前訓練されたモデルにアクセスできない新しいシナリオを考察する。
まず、事前に学習したモデルが凍結されているだけでなく、見えなくなるような、テキスト分類のブラックボックス設定を紹介します。
そこで我々は,事前学習コーパスから事前学習したモデルから学習した知識を活用できる,即時学習ファミリーの新しい手法であるブラックボックスプロンプトを提案する。
論文 参考訳(メタデータ) (2022-01-21T03:53:19Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。