論文の概要: Rule-Based Error Detection and Correction to Operationalize Movement
Trajectory Classification
- arxiv url: http://arxiv.org/abs/2308.14250v1
- Date: Mon, 28 Aug 2023 01:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 15:53:39.397316
- Title: Rule-Based Error Detection and Correction to Operationalize Movement
Trajectory Classification
- Title(参考訳): ルールに基づく動作軌跡分類の誤り検出と補正
- Authors: Bowen Xi, Kevin Scaria, Paulo Shakarian
- Abstract要約: 近年のセキュリティアプリケーションは、トレーニングデータが少ないようなモデルをトレーニングするのに使用されるデータとは異なる環境において、このタスクを迅速に採用する必要がある。
我々は,これらのモデルの誤り訂正と検出を行い,最終的なセキュリティアプリケーションへの展開を支援する,ニューロシンボリックなルールベースのフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.8883169286011462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classification of movement trajectories has many applications in
transportation. Supervised neural models represent the current
state-of-the-art. Recent security applications require this task to be rapidly
employed in environments that may differ from the data used to train such
models for which there is little training data. We provide a neuro-symbolic
rule-based framework to conduct error correction and detection of these models
to support eventual deployment in security applications. We provide a suite of
experiments on several recent and state-of-the-art models and show an accuracy
improvement of 1.7% over the SOTA model in the case where all classes are
present in training and when 40% of classes are omitted from training, we
obtain a 5.2% improvement (zero-shot) and 23.9% (few-shot) improvement over the
SOTA model without resorting to retraining of the base model.
- Abstract(参考訳): 移動軌道の分類は輸送に多くの応用がある。
スーパービジョンされたニューラルモデルは現在の最先端を表現している。
近年のセキュリティアプリケーションは、トレーニングデータが少ないようなモデルをトレーニングするのに使用されるデータとは異なる環境において、このタスクを迅速に採用する必要がある。
我々は,これらのモデルの誤り訂正と検出を行い,最終的なセキュリティアプリケーションへの展開を支援するニューロシンボリックルールベースのフレームワークを提供する。
我々は、最近のいくつかのモデルと最先端モデルに関する一連の実験を行い、全てのクラスが訓練中に存在する場合のSOTAモデルに対して1.7%の精度向上を示し、40%のクラスがトレーニングから省略された場合、ベースモデルの再訓練に頼らずに、SOTAモデルに対して5.2%の改善(ゼロショット)と23.9%の改善(ファウショット)を得る。
関連論文リスト
- Efficient Transferability Assessment for Selection of Pre-trained Detectors [63.21514888618542]
本稿では,事前学習対象検出器の効率的な伝達性評価について検討する。
我々は、事前訓練された検出器の大規模で多様な動物園を含む検出器転送性ベンチマークを構築した。
実験により,本手法は伝達性の評価において,他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-14T14:23:23Z) - Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - Not All Steps are Equal: Efficient Generation with Progressive Diffusion
Models [62.155612146799314]
ステップ適応トレーニングと呼ばれる新しい2段階のトレーニング戦略を提案する。
初期段階では、ベース・デノナイジング・モデルはすべてのタイムステップを包含するように訓練される。
タイムステップを別々のグループに分割し、各グループ内でモデルを微調整して、特殊な認知機能を実現します。
論文 参考訳(メタデータ) (2023-12-20T03:32:58Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Reusing Pretrained Models by Multi-linear Operators for Efficient
Training [65.64075958382034]
大規模なモデルをスクラッチからトレーニングすることは、通常、かなりの量のリソースを必要とする。
bert2BERT や LiGO といった最近の研究は、大規模なモデルを初期化するために、小さな事前訓練されたモデルを再利用している。
本稿では,対象モデルの各重みを事前学習モデルの全重みに線形に相関させる手法を提案する。
論文 参考訳(メタデータ) (2023-10-16T06:16:47Z) - No Data Augmentation? Alternative Regularizations for Effective Training
on Small Datasets [0.0]
我々は、小さな画像分類データセットにおける教師あり学習の限界を推し進めるために、代替正規化戦略について研究する。
特に,モデルパラメータのノルムを通した最適学習率と重み減衰対の選択に非依存を用いる。
テスト精度は66.5%に達し、最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-09-04T16:13:59Z) - Adaptive Certified Training: Towards Better Accuracy-Robustness
Tradeoffs [17.46692880231195]
本稿では,適応型認定ラジイを用いたトレーニングがモデルの精度と堅牢性の向上に役立つというキーインサイトに基づく,新しい認定トレーニング手法を提案する。
提案手法の有効性を,MNIST,CIFAR-10,TinyImageNetデータセットに示す。
論文 参考訳(メタデータ) (2023-07-24T18:59:46Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Revisiting the Updates of a Pre-trained Model for Few-shot Learning [11.871523410051527]
我々は2つの人気のある更新手法、微調整と線形探索を比較した。
試料数の増加に伴い, 微調整は線形探索より優れていることがわかった。
論文 参考訳(メタデータ) (2022-05-13T08:47:06Z) - Enabling Deep Learning on Edge Devices through Filter Pruning and
Knowledge Transfer [5.239675888749389]
本稿では,クラウドで訓練された大規模モデルから軽量なトレーニング可能なモデルを作成するための,フィルタプルーニングに基づく新しいモデル圧縮手法を提案する。
第二に、オンデバイスモデルがリアルタイムであるいはほぼリアルタイムで漸進的に更新できるように、新しい知識伝達手法を提案する。
その結果, モデル圧縮法は最大99.36%のWRN-28-10パラメータを除去できる一方で, CIFAR-10ではトップ1の精度を90%以上保持できることがわかった。
論文 参考訳(メタデータ) (2022-01-22T00:27:21Z) - An Efficient Method of Training Small Models for Regression Problems
with Knowledge Distillation [1.433758865948252]
回帰問題に対する知識蒸留の新しい定式化を提案する。
まず,教師モデル予測を用いて,教師モデルを用いた学習サンプルの退学率を下げる新たな損失関数,教師の退学率の減少を提案する。
マルチタスクネットワークを考えることで、学生モデルの特徴抽出の訓練がより効果的になる。
論文 参考訳(メタデータ) (2020-02-28T08:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。