論文の概要: Abex-rat: Synergizing Abstractive Augmentation and Adversarial Training for Classification of Occupational Accident Reports
- arxiv url: http://arxiv.org/abs/2509.02072v1
- Date: Tue, 02 Sep 2025 08:22:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.956026
- Title: Abex-rat: Synergizing Abstractive Augmentation and Adversarial Training for Classification of Occupational Accident Reports
- Title(参考訳): Abex-rat: Occupational Accident Reports の分類における抽象的増強と対人訓練の相乗化
- Authors: Jian Chen, Jinbao Tian, Yunqi Xu, Zhou Li,
- Abstract要約: ABEX-RATは、強力な対人訓練で生成データ拡張を相乗化するための新しいフレームワークである。
本研究では,AbeX-RATが新しい最先端性能を実現し,マクロF1スコアが90.32%に達することを示す。
- 参考スコア(独自算出の注目度): 7.744254329023469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automatic classification of occupational accident reports is a critical research area for enhancing workplace safety and enabling large-scale risk analysis. However, the severe class imbalance inherent in these real-world datasets often compromises the performance of analytical models, particularly for rare but severe incident types, hindering the development of reliable automated systems. To address this challenge, we propose ABEX-RAT, a novel and efficient framework that synergizes generative data augmentation with robust adversarial training. Our approach first employs a twostep abstractive-expansive (ABEX) pipeline, which leverages a large language model to distill core incident semantics and then uses a generative model to create diverse, highquality synthetic samples for underrepresented classes. Subsequently, a lightweight classifier is trained on the augmented data using a computationally efficient random adversarial training (RAT) protocol, which stochastically applies perturbations to enhance model generalization and robustness without significant overhead. Experimental results on the public OSHA dataset demonstrate that our method achieves new state-of-the-art performance, reaching a macro-F1 score of 90.32% and significantly outperforming previous SOTA and fine-tuned large model baselines. Our work validates that this synergistic strategy is a highly effective and efficient alternative to brute-force fine-tuning for specialized, imbalanced classification tasks. The code is publicly available at:https://github.com/nxcc-lab/ABEX-RAT.
- Abstract(参考訳): 職業事故報告の自動分類は、職場の安全を高め、大規模リスク分析を可能にする重要な研究分野である。
しかし、これらの実世界のデータセットに固有の重大クラス不均衡は、しばしば分析モデル、特に稀だが重大なインシデントタイプの性能を損なうことがあり、信頼性の高い自動システムの開発を妨げる。
この課題に対処するため、我々は、堅牢な対人訓練で生成データ拡張を相乗化するための、新規で効率的なフレームワークであるABEX-RATを提案する。
提案手法では,まず2段階の抽象的拡張(ABEX)パイプラインを用いて,コアインシデント・セマンティクスを蒸留する大規模言語モデルを用いて,生成モデルを用いて,低表現クラスのための多種多様な高品質な合成サンプルを生成する。
その後、計算効率のよい乱逆トレーニング(RAT)プロトコルを用いて、拡張データに基づいて軽量な分類器を訓練する。
公開OSHAデータセットによる実験結果から,提案手法は新たな最先端性能を実現し,マクロF1スコアが90.32%に達し,従来のSOTAと微調整された大型モデルベースラインを著しく上回る結果となった。
我々の研究は、このシナジスティック戦略が、専門的で不均衡な分類タスクのためのブルートフォース微調整の、非常に効果的で効率的な代替手段であることを検証する。
コードはhttps://github.com/nxcc-lab/ABEX-RAT.comで公開されている。
関連論文リスト
- ReLATE+: Unified Framework for Adversarial Attack Detection, Classification, and Resilient Model Selection in Time-Series Classification [9.085996862368576]
時系列分類における計算オーバーヘッドを最小限に抑えることは、特にディープラーニングモデルにおいて重要な課題である。
敵攻撃を検出し分類する総合的なフレームワークであるReLATE+を提案する。
ReLATE+は計算オーバーヘッドを平均77.68%削減し、対向レジリエンスを高め、堅牢なモデル選択を合理化する。
論文 参考訳(メタデータ) (2025-08-26T22:11:50Z) - Model-agnostic Mitigation Strategies of Data Imbalance for Regression [0.0]
データ不均衡は、回帰タスクにおいて広範囲にわたる課題として持続し、モデルパフォーマンスのバイアスを導入し、予測信頼性を損なう。
既存のサンプリング手法を構築・改善する高度な緩和手法を提案する。
モデルのアンサンブル(不均衡緩和で訓練されたモデルと、非バランスで訓練されたモデル)の構築は、これらの負の効果を著しく減少させることを実証する。
論文 参考訳(メタデータ) (2025-06-02T09:46:08Z) - Adversarial Training for Defense Against Label Poisoning Attacks [53.893792844055106]
ラベル中毒攻撃は機械学習モデルに重大なリスクをもたらす。
本稿では,これらの脅威に対処するために,サポートベクトルマシン(SVM)に基づく新たな対角的防御戦略を提案する。
提案手法は, 様々なモデルアーキテクチャに対応し, カーネルSVMを用いた予測勾配降下アルゴリズムを用いて, 対向学習を行う。
論文 参考訳(メタデータ) (2025-02-24T13:03:19Z) - PUMA: margin-based data pruning [51.12154122266251]
モデル分類境界からの距離(すなわちマージン)に基づいて、いくつかのトレーニングサンプルを除去するデータプルーニングに焦点を当てる。
我々は,DeepFoolを用いてマージンを算出する新しいデータプルーニング戦略PUMAを提案する。
PUMAは,現状の最先端手法であるロバスト性の上に利用でき,既存のデータプルーニング戦略と異なり,モデル性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2024-05-10T08:02:20Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Stabilizing and Improving Federated Learning with Non-IID Data and
Client Dropout [15.569507252445144]
ラベル分布スキューによるデータヘテロジェニーティは、フェデレート学習におけるモデル性能を制限する重要な障害であることが示されている。
クロスエントロピー損失を計算するための事前校正ソフトマックス関数を導入することで、シンプルで効果的なフレームワークを提案する。
非IIDデータとクライアントドロップアウトの存在下で、既存のベースラインよりも優れたモデル性能を示す。
論文 参考訳(メタデータ) (2023-03-11T05:17:59Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。