論文の概要: Can VLM Pseudo-Labels Train a Time-Series QA Model That Outperforms the VLM?
- arxiv url: http://arxiv.org/abs/2509.25696v1
- Date: Tue, 30 Sep 2025 02:53:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.40277
- Title: Can VLM Pseudo-Labels Train a Time-Series QA Model That Outperforms the VLM?
- Title(参考訳): VLMの擬似ラベルは、VLMより優れた時系列QAモデルを訓練できるか?
- Authors: Takuya Fujimura, Kota Dohi, Natsuo Yamashita, Yohei Kawaguchi,
- Abstract要約: 視覚言語モデルによって生成された擬似ラベルを用いた学習手法を提案する。
実験結果から,TSQAモデルが擬似ラベルを用いた学習に成功しているだけでなく,VLM自体の性能を超越していることが判明した。
- 参考スコア(独自算出の注目度): 11.680234126384667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time-series question answering (TSQA) tasks face significant challenges due to the lack of labeled data. Alternatively, with recent advancements in large-scale models, vision-language models (VLMs) have demonstrated the potential to analyze time-series signals in a zero-shot manner. In this paper, we propose a training approach that uses pseudo labels generated by a VLM. Although VLMs can produce incorrect labels, TSQA models can still be effectively trained based on the property that deep neural networks are inherently robust to such noisy labels. Our experimental results demonstrate that TSQA models are not only successfully trained with pseudo labels, but also surpass the performance of the VLM itself by leveraging a large amount of unlabeled data.
- Abstract(参考訳): 時系列質問応答(TSQA)タスクはラベル付きデータの欠如によって大きな課題に直面している。
あるいは、近年の大規模モデルの発展に伴い、視覚言語モデル(VLM)はゼロショット方式で時系列信号を解析する可能性を実証している。
本稿では,VLMが生成した擬似ラベルを用いた学習手法を提案する。
VLMは間違ったラベルを生成することができるが、深いニューラルネットワークが本質的にそのようなノイズのあるラベルに対して堅牢であるという特性に基づいてTSQAモデルを効果的に訓練することができる。
実験の結果,TSQAモデルは擬似ラベルを用いた学習に成功しているだけでなく,ラベルのない大量のデータを活用することで,VLM自体の性能を上回っていることがわかった。
関連論文リスト
- Vision-Language Model Selection and Reuse for Downstream Adaptation [48.6730325059219]
本稿では、モデルラベル学習(MLL)と呼ばれる、下流タスクのためのVLMの選択と再利用のための新しいパラダイムを提案する。
モデルラベリングプロセスは目標タスクに依存しないため,提案手法は計算効率が高く,成長可能である。
論文 参考訳(メタデータ) (2025-01-30T11:10:46Z) - Labels Generated by Large Language Models Help Measure People's Empathy in Vitro [9.536979155245026]
本稿では,大規模言語モデル(LLM)を用いて主流モデルの教師あり学習を改善することを提案する。
我々は,クラウドソースラベルをLCMラベルに置き換えたり補足したりすることで,統計的に有意な精度向上を実現していることを示す。
本稿では,評価指標の選択と人口統計バイアスを更に分析し,より公平な共感型コンピューティングモデルの開発を支援する。
論文 参考訳(メタデータ) (2025-01-01T01:06:58Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Test-Time Self-Adaptive Small Language Models for Question Answering [63.91013329169796]
ラベルのないテストデータのみを用いて、より小さな自己適応型LMの能力を示し、検討する。
提案した自己適応戦略は,ベンチマークQAデータセットの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-10-20T06:49:32Z) - Q: How to Specialize Large Vision-Language Models to Data-Scarce VQA
Tasks? A: Self-Train on Unlabeled Images! [103.09776737512077]
SelTDA(Self-Taught Data Augmentation)は、小規模なVQAデータセット上で大きな視覚言語モデルを微調整するための戦略である。
画像上に直接条件付の疑似ラベルを生成することで、未ラベル画像の疑似ラベル作成を可能にする。
我々は, 自己学習によるデータ拡張が, 対向的に検索された質問に対して堅牢性を高めることを示す一連の実験について述べる。
論文 参考訳(メタデータ) (2023-06-06T18:00:47Z) - Test-Time Adaptation with CLIP Reward for Zero-Shot Generalization in
Vision-Language Models [76.410400238974]
モデル出力を補正し、モデルが盲目的に自信を持たないようにするためのフィードバック付きTTAを提案する。
CLIPモデルは、TTA中に報酬モデルとして採用され、VLMにフィードバックを提供する。
提案したCLIPフィードバック(RLCF)フレームワークによるテキスト強化学習は非常に柔軟で普遍的である。
論文 参考訳(メタデータ) (2023-05-29T11:03:59Z) - A Benchmark Generative Probabilistic Model for Weak Supervised Learning [2.0257616108612373]
アノテーションの負担を軽減するために、弱監視学習アプローチが開発されている。
遅延変数モデル(PLVM)が4つのデータセット間で最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2023-03-31T07:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。