論文の概要: Boosting AI Reliability with an FSM-Driven Streaming Inference Pipeline: An Industrial Case
- arxiv url: http://arxiv.org/abs/2603.01528v1
- Date: Mon, 02 Mar 2026 06:58:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.726132
- Title: Boosting AI Reliability with an FSM-Driven Streaming Inference Pipeline: An Industrial Case
- Title(参考訳): FSM駆動型ストリーミング推論パイプラインによるAI信頼性向上 - 産業事例
- Authors: Yutian Zhang, Zhongyi Pei, Yi Mao, Chen Wang, Lin Liu, Jianmin Wang,
- Abstract要約: 本稿では,監視ビデオから掘削作業を自動的にカウントする産業用AIアプリケーションについて述べる。
このアプローチでは、オブジェクト検出モデルとFSM(Finite State Machine)を統合し、運用シナリオの知識を符号化して、ストリーミングデータ上のAIの予測をガイドし、修正する。
12のサイトビデオから7000枚以上の画像からなる実世界のデータセットを実験した結果,本手法は元の手法に比べて優れた性能とロバスト性を示した。
- 参考スコア(独自算出の注目度): 20.22754568070674
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The widespread adoption of AI in industry is often hampered by its limited robustness when faced with scenarios absent from training data, leading to prediction bias and vulnerabilities. To address this, we propose a novel streaming inference pipeline that enhances data-driven models by explicitly incorporating prior knowledge. This paper presents the work on an industrial AI application that automatically counts excavator workloads from surveillance videos. Our approach integrates an object detection model with a Finite State Machine (FSM), which encodes knowledge of operational scenarios to guide and correct the AI's predictions on streaming data. In experiments on a real-world dataset of over 7,000 images from 12 site videos, encompassing more than 300 excavator workloads, our method demonstrates superior performance and greater robustness compared to the original solution based on manual heuristic rules. We will release the code at https://github.com/thulab/video-streamling-inference-pipeline.
- Abstract(参考訳): 業界におけるAIの普及は、トレーニングデータに欠けているシナリオに直面した場合に、限られた堅牢性によって妨げられ、予測バイアスと脆弱性につながることが少なくない。
そこで本研究では,事前知識を明示的に取り入れることで,データ駆動型モデルを強化する新しいストリーミング推論パイプラインを提案する。
本稿では,監視ビデオから掘削作業を自動的にカウントする産業用AIアプリケーションについて述べる。
このアプローチでは、オブジェクト検出モデルとFSM(Finite State Machine)を統合し、運用シナリオの知識を符号化して、ストリーミングデータ上のAIの予測をガイドし、修正する。
12のサイトビデオから,300以上の掘削作業を含む7,000以上の画像からなる実世界のデータセットの実験において,本手法は,手動ヒューリスティックルールに基づく元のソリューションと比較して,優れた性能と堅牢性を示す。
コードはhttps://github.com/thulab/video-streamling-inference-pipeline.comで公開します。
関連論文リスト
- Future Optical Flow Prediction Improves Robot Control & Video Generation [100.87884718953099]
本稿では,VLM(Vision-Language Model)と拡散アーキテクチャを組み合わせた新しい光フロー予測モデルFOFPredを紹介する。
我々のモデルは、高度にスケーラブルだが非構造化のソースである、Webスケールの人間活動データに基づいて訓練されている。
言語駆動設定下でのロボット操作とビデオ生成による評価は、FOFPredのクロスドメインの汎用性を確立する。
論文 参考訳(メタデータ) (2026-01-15T18:49:48Z) - Towards Safer and Understandable Driver Intention Prediction [30.136400523083907]
運転者の安全のために,運転予測における解釈可能性の課題を紹介する。
解釈可能なDIPの研究を促進するために,新たなマルチモーダル・エゴ中心のビデオデータセットであるDAAD-Xをキュレートする。
次に,コヒーレントな説明を本質的に生成するフレームワークとして,ビデオコンセプト・ボトルネック・モデル(VCBM)を提案する。
論文 参考訳(メタデータ) (2025-10-10T09:41:25Z) - GV-VAD : Exploring Video Generation for Weakly-Supervised Video Anomaly Detection [6.09434007746295]
ビデオ異常検出(VAD)は、インテリジェント監視などの公共安全アプリケーションにおいて重要な役割を果たす。
本稿では, 意味制御可能な, 物理的に可視な合成ビデオを生成するために, 映像強化弱教師付きVADフレームワークを提案する。
提案するフレームワークは,UCF-Crimeデータセットの最先端手法より優れている。
論文 参考訳(メタデータ) (2025-08-01T04:42:40Z) - BusterX: MLLM-Powered AI-Generated Video Forgery Detection and Explanation [77.55074597806035]
GenBuster-200Kは、200Kの高解像度ビデオクリップを備えた、大規模で高品質なAI生成ビデオデータセットである。
BusterXは、マルチモーダル大言語モデル(MLLM)と強化学習を活用した、AI生成のビデオ検出および説明フレームワークである。
論文 参考訳(メタデータ) (2025-05-19T02:06:43Z) - Hard Cases Detection in Motion Prediction by Vision-Language Foundation Models [16.452638202694246]
本研究は、自動運転におけるハードケースの検出におけるビジョン・ランゲージ・ファンデーション・モデル(VLM)の可能性を探るものである。
設計したプロンプトで逐次画像フレームを供給し,課題のあるエージェントやシナリオを効果的に識別する,実現可能なパイプラインを提案する。
NuScenesデータセット上で、パイプラインを最先端の手法に組み込むことの有効性と可能性を示す。
論文 参考訳(メタデータ) (2024-05-31T16:35:41Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。