論文の概要: TRUST: Test-Time Refinement using Uncertainty-Guided SSM Traverses
- arxiv url: http://arxiv.org/abs/2509.22813v1
- Date: Fri, 26 Sep 2025 18:19:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.887365
- Title: TRUST: Test-Time Refinement using Uncertainty-Guided SSM Traverses
- Title(参考訳): TRUST: 不確実性誘導SSMトラバースを用いたテスト時間短縮
- Authors: Sahar Dastani, Ali Bahri, Gustavo Adolfo Vargas Hakim, Moslem Yazdanpanah, Mehrdad Noori, David Osowiechi, Samuel Barbeau, Ismail Ben Ayed, Herve Lombaert, Christian Desrosiers,
- Abstract要約: State Space Models (SSMs) は視覚変換器 (ViTs) の効率的な代替品として登場した。
入力画像の複数の因果的視点を生成する新しいテスト時間適応(TTA)手法であるTRUSTを提案する。
7つのベンチマーク実験により、TRUSTは一貫してロバスト性を改善し、既存のTTAメソッドより優れていることが示された。
- 参考スコア(独自算出の注目度): 32.893037694785804
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: State Space Models (SSMs) have emerged as efficient alternatives to Vision Transformers (ViTs), with VMamba standing out as a pioneering architecture designed for vision tasks. However, their generalization performance degrades significantly under distribution shifts. To address this limitation, we propose TRUST (Test-Time Refinement using Uncertainty-Guided SSM Traverses), a novel test-time adaptation (TTA) method that leverages diverse traversal permutations to generate multiple causal perspectives of the input image. Model predictions serve as pseudo-labels to guide updates of the Mamba-specific parameters, and the adapted weights are averaged to integrate the learned information across traversal scans. Altogether, TRUST is the first approach that explicitly leverages the unique architectural properties of SSMs for adaptation. Experiments on seven benchmarks show that TRUST consistently improves robustness and outperforms existing TTA methods.
- Abstract(参考訳): State Space Models (SSM) はビジョントランスフォーマー(ViT)の効率的な代替品として登場し、VMambaはビジョンタスク用に設計された先駆的なアーキテクチャとして注目されている。
しかし、その一般化性能は分布シフトによって著しく低下する。
この制限に対処するため,TRUST (Test-Time Refinement using Uncertainty-Guided SSM Traverses) を提案する。
モデル予測は、マンバ固有のパラメータの更新をガイドする擬似ラベルとして機能し、適応された重み付けを平均化し、学習情報をトラバーススキャン全体で統合する。
TRUSTは、適応のためにSSMのユニークなアーキテクチャ特性を明示的に活用する最初のアプローチである。
7つのベンチマーク実験により、TRUSTは一貫してロバスト性を改善し、既存のTTAメソッドより優れていることが示された。
関連論文リスト
- MTNet: Learning modality-aware representation with transformer for RGBT tracking [35.96855931247585]
MTNetと呼ばれるトランスフォーマーに基づくモダリティ対応トラッカーを提案する。
その後、グローバルな依存関係をキャプチャしてインスタンス表現を強化するために、Transformer fusion Networkが適用される。
提案手法は,3つのRGBTベンチマークにおいて,最先端の競合相手と比較して良好な結果が得られる。
論文 参考訳(メタデータ) (2025-08-24T10:01:11Z) - Advancing Reliable Test-Time Adaptation of Vision-Language Models under Visual Variations [67.35596444651037]
視覚言語モデル(VLM)は、素晴らしいゼロショット機能を示すが、ラベル付きデータが利用できない場合、下流タスクの分散シフトに苦慮する。
本稿では,信頼性を両面から高めるReliable Test-Time Adaptation (ReTA)法を提案する。
論文 参考訳(メタデータ) (2025-07-13T05:37:33Z) - Test-Time Consistency in Vision Language Models [26.475993408532304]
VLM(Vision-Language Models)は、様々なマルチモーダルタスクにおいて優れたパフォーマンスを実現している。
MM-R3のような最近のベンチマークでは、最先端のVLMでさえ意味論的に等価な入力にまたがって分岐予測をもたらすことが強調されている。
教師付き再学習なしにセマンティックな一貫性を高める,シンプルで効果的なテスト時間一貫性フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-27T17:09:44Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - Hierarchical Side-Tuning for Vision Transformers [33.536948382414316]
微調整された事前訓練された視覚変換器(ViTs)は、視覚認識タスクの強化に大きく貢献している。
PETLは、完全な微調整に比べてパラメータ更新が少なく、高いパフォーマンスを実現する可能性がある。
本稿では,多様な下流タスクへのVTモデルの転送を容易にする革新的PETL手法である階層側チューニング(HST)を紹介する。
論文 参考訳(メタデータ) (2023-10-09T04:16:35Z) - AR-TTA: A Simple Method for Real-World Continual Test-Time Adaptation [1.4530711901349282]
本稿では,自律運転のためのデータセット,すなわちCLAD-CとShiFTを用いたテスト時間適応手法の検証を提案する。
現在のテスト時間適応手法は、ドメインシフトの様々な程度を効果的に扱うのに苦労している。
モデル安定性を高めるために、小さなメモリバッファを組み込むことで、確立された自己学習フレームワークを強化する。
論文 参考訳(メタデータ) (2023-09-18T19:34:23Z) - Pruning Self-attentions into Convolutional Layers in Single Path [89.55361659622305]
ビジョントランスフォーマー(ViT)は、様々なコンピュータビジョンタスクに対して印象的なパフォーマンスを実現している。
トレーニング済みのViTを効率よく自動圧縮するSPViT(Single-Path Vision Transformer pruning)を提案する。
われわれのSPViTはDeiT-Bで52.0%のFLOPをトリミングできる。
論文 参考訳(メタデータ) (2021-11-23T11:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。