論文の概要: FastBUS: A Fast Bayesian Framework for Unified Weakly-Supervised Learning
- arxiv url: http://arxiv.org/abs/2603.00517v1
- Date: Sat, 28 Feb 2026 07:27:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.237515
- Title: FastBUS: A Fast Bayesian Framework for Unified Weakly-Supervised Learning
- Title(参考訳): FastBUS: 弱々しい教師付き学習のための高速ベイズフレームワーク
- Authors: Ziquan Wang, Haobo Wang, Ke Chen, Lei Feng, Gang Chen,
- Abstract要約: 機械学習は、しばしば様々な不正確なラベルを伴い、多種多様な教師付き設定をもたらす。
そこで本研究では,様々な弱監督領域にまたがる潜在真のラベル分布を効率的に推定する枠組みを提案する。
提案手法は,最弱教師付き環境下でのSOTA結果を実現し,他の一般的な手法と比較して,実行時間の最大で数百倍の高速化を実現している。
- 参考スコア(独自算出の注目度): 26.056438339821977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning often involves various imprecise labels, leading to diverse weakly supervised settings. While recent methods aim for universal handling, they usually suffer from complex manual pre-work, ignore the relationships between associated labels, or are unable to batch process due to computational design flaws, resulting in long running times. To address these limitations, we propose a novel general framework that efficiently infers latent true label distributions across various weak supervisions. Our key idea is to express the label brute-force search process as a probabilistic transition of label variables, compressing diverse weakly supervised DFS tree structures into a shared Bayesian network. From this, we derived a latent probability calculation algorithm based on generalized belief propagation and proposed two joint acceleration strategies: 1) introducing a low-rank assumption to approximate the transition matrix, reducing time complexity; 2) designing an end-to-end state evolution module to learn batch-scale transition matrices, facilitating multi-category batch processing. In addition, the equivalence of our method with the EM algorithm in most scenarios is further demonstrated. Extensive experiments show that our method achieves SOTA results under most weakly supervised settings, and achieves up to hundreds of times faster acceleration in running time compared to other general methods.
- Abstract(参考訳): 機械学習は、しばしば様々な不正確なラベルを伴い、多種多様な教師付き設定をもたらす。
最近の手法は普遍的な処理を目標としているが、通常は複雑な手作業の事前作業に悩まされ、関連するラベル間の関係を無視したり、あるいは計算設計上の欠陥のためにバッチ処理ができず、長い実行時間になる。
これらの制約に対処するため、様々な弱い監督者間で潜在真のラベル分布を効率的に推定する新しい一般的な枠組みを提案する。
我々のキーとなる考え方は、ラベル変数の確率的遷移としてラベルのブルートフォース探索プロセスを表現し、多種多様な教師付きDSS木構造を共有ベイズネットワークに圧縮することである。
そこで我々は、一般化された信念伝播に基づく潜在確率計算アルゴリズムを導出し、2つの共同加速戦略を提案する。
1) 遷移行列を近似するために低ランクの仮定を導入し、時間の複雑さを減少させる。
2) バッチスケールの遷移行列を学習し,複数カテゴリのバッチ処理を容易にするために,エンドツーエンドの状態進化モジュールを設計する。
さらに,多くのシナリオにおいてEMアルゴリズムと等価性を示す。
実験結果から,本手法は最弱教師付き環境下でSOTAを達成し,他の一般的な手法と比較して最大で数百倍の高速化を実現していることがわかった。
関連論文リスト
- Accelerate Speculative Decoding with Sparse Computation in Verification [49.74839681322316]
投機的復号化は、複数のドラフトトークンを並列に検証することにより、自動回帰言語モデル推論を加速する。
既存のスペーシフィケーション方式は主にトークン・バイ・トーケンの自己回帰復号化のために設計されている。
そこで本研究では,注目度,FFN,MoEを両立させるスパース検証フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-26T07:53:41Z) - OTARo: Once Tuning for All Precisions toward Robust On-Device LLMs [21.55040910903597]
OTARoはデバイス上の大規模言語モデルで量子化精度を柔軟に切り替えることができる新しい手法である。
すべての精度で一貫して強固で堅牢なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-11-17T08:56:27Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - Bridge the Gap: From Weak to Full Supervision for Temporal Action Localization with PseudoFormer [13.153366072673915]
弱いWTALと完全に教師されたWTALのギャップを埋める新しいフレームワークであるPseudoFormerを提案する。
RickerFusionは、予測されたすべてのアクション提案をグローバルな共有スペースにマッピングし、より良い品質で擬似ラベルを生成する。
弱いブランチと異なる事前のスニペットレベルのラベルとプロポーザルレベルのラベルを使って、フルブランチで回帰ベースのモデルをトレーニングします。
PseudoFormer は THUMOS14 と ActivityNet1.3 の2つのベンチマークで最先端の WTAL を達成している。
論文 参考訳(メタデータ) (2025-04-21T05:00:07Z) - Multimodal Instruction Disassembly with Covariate Shift Adaptation and Real-time Implementation [3.70729078195191]
我々は、ターゲットデバイスから電力とEMを同時に収集できる新しい小型プラットフォーム、RASCv3を導入する。
我々は情報理論を用いてパワーとEMトレースから特徴を組み合わせ、選択するための新しいアプローチを考案した。
オフラインおよびリアルタイムの命令分解器の認識率は、単一および複数モードの場合と比較する。
論文 参考訳(メタデータ) (2024-12-10T17:00:23Z) - A General Framework for Learning from Weak Supervision [93.89870459388185]
本稿では、新しいアルゴリズムを用いて、弱監督(GLWS)から学習するための一般的な枠組みを紹介する。
GLWSの中心は期待最大化(EM)の定式化であり、様々な弱い監督源を順応的に収容している。
また,EM計算要求を大幅に単純化する高度なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-02T21:48:50Z) - Lookahead: An Inference Acceleration Framework for Large Language Model with Lossless Generation Accuracy [46.81745860690336]
大規模言語モデル(LLM)は、質問応答、翻訳、テキスト要約、対話システムなど、様々なタスクで大きく進歩している。
本稿では,推論プロセスの高速化のための汎用フレームワークを提案する。
我々は、推論加速フレームワークの適用によって達成された顕著な改善を実証するために、広範囲な実験を行う。
論文 参考訳(メタデータ) (2023-12-20T02:55:15Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Adaptive Batch Sizes for Active Learning A Probabilistic Numerics
Approach [28.815294991377645]
アクティブな学習並列化は広く使われているが、一般的には実験全体を通してバッチサイズの修正に依存している。
この固定されたアプローチは、コストとスピードの間の動的なトレードオフのため、非効率である。
本稿では,バッチサイズを適応的に変更する新しい確率論フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-09T12:17:18Z) - General Cutting Planes for Bound-Propagation-Based Neural Network
Verification [144.7290035694459]
任意の切削平面制約を加えることができるような境界伝搬手順を一般化する。
MIPソルバは、境界プロパゲーションベースの検証器を強化するために高品質な切削面を生成することができる。
本手法は,oval20ベンチマークを完全解き,oval21ベンチマークの2倍のインスタンスを検証できる最初の検証器である。
論文 参考訳(メタデータ) (2022-08-11T10:31:28Z) - Semi-Supervised Temporal Action Detection with Proposal-Free Masking [134.26292288193298]
PropOsal-free Temporal mask (SPOT) に基づく新しい半教師付き時間行動検出モデルを提案する。
SPOTは最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2022-07-14T16:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。