論文の概要: Safer Together: Machine Learning Models Trained on Shared Accident
Datasets Predict Construction Injuries Better than Company-Specific Models
- arxiv url: http://arxiv.org/abs/2301.03567v1
- Date: Mon, 9 Jan 2023 18:37:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 17:46:50.141109
- Title: Safer Together: Machine Learning Models Trained on Shared Accident
Datasets Predict Construction Injuries Better than Company-Specific Models
- Title(参考訳): Safer Together: 企業特化モデルより優れた建設障害予測のための共有事故データセットに基づく機械学習モデル
- Authors: Antoine J.-P. Tixier, Matthew R. Hallowell
- Abstract要約: 本研究は,3つのドメインに属する9社から57万件の事故の集合的データセットリポジトリを構築した。
複数のデータセット(ジェネリックモデル)でトレーニングされたモデルが、企業固有のモデルよりも安全性の高い結果を予測するかどうかを検証した。
- 参考スコア(独自算出の注目度): 3.163696881018052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we capitalized on a collective dataset repository of 57k
accidents from 9 companies belonging to 3 domains and tested whether models
trained on multiple datasets (generic models) predicted safety outcomes better
than the company-specific models. We experimented with full generic models
(trained on all data), per-domain generic models (construction, electric T&D,
oil & gas), and with ensembles of generic and specific models. Results are very
positive, with generic models outperforming the company-specific models in most
cases while also generating finer-grained, hence more useful, forecasts.
Successful generic models remove the needs for training company-specific
models, saving a lot of time and resources, and give small companies, whose
accident datasets are too limited to train their own models, access to safety
outcome predictions. It may still however be advantageous to train specific
models to get an extra boost in performance through ensembling with the generic
models. Overall, by learning lessons from a pool of datasets whose accumulated
experience far exceeds that of any single company, and making these lessons
easily accessible in the form of simple forecasts, generic models tackle the
holy grail of safety cross-organizational learning and dissemination in the
construction industry.
- Abstract(参考訳): 本研究では,3つのドメインに属する9社による57万件の事故の集合的データセットリポジトリを利用して,複数のデータセット(ジェネリックモデル)でトレーニングしたモデルが,企業固有のモデルよりも安全性を予測できるかどうかを検証した。
すべてのデータでトレーニングされた)完全ジェネリックモデル、ドメイン単位のジェネリックモデル(建設、電気t&d、石油およびガスモデル)、およびジェネリックおよび特定のモデルのアンサンブルを実験した。
結果は非常に肯定的であり、多くの場合、ジェネリックモデルが企業固有のモデルを上回るだけでなく、より細かい、従ってより有用な予測を生成する。
成功したジェネリックモデルは、企業固有のモデルのトレーニングの必要性を取り除き、多くの時間とリソースを節約し、事故データセットに制限があり、自身のモデルをトレーニングできない小さな企業に、安全結果の予測へのアクセスを与えます。
しかし、特定のモデルをトレーニングして、ジェネリックモデルとアンサンブルすることで、パフォーマンスをさらに向上させるのが有利かもしれない。
全体として、蓄積した経験がどの企業よりもはるかに多いデータセットから学んだり、単純な予測という形で容易に利用できるようにすることで、ジェネリックモデルは、建設業界における安全な組織間学習と普及の聖杯に取り組むことができる。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Compositional Generative Modeling: A Single Model is Not All You Need [29.050431676226115]
我々は、より小さな生成モデルを構成することによって、より大規模な生成システムを構築するべきであると論じる。
このような構成的生成アプローチによって、よりデータ効率の良い方法で分布を学習できることを示す。
論文 参考訳(メタデータ) (2024-02-02T02:40:51Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Revealing Secrets From Pre-trained Models [2.0249686991196123]
トランスファーラーニングは多くの新しいディープラーニングアルゴリズムで広く採用されている。
本研究では,事前学習モデルと微調整モデルが重み値に非常によく似ていることを示す。
ブラックボックスの被害者モデルで使用されるモデルアーキテクチャと事前訓練モデルを明らかにするモデル抽出攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-19T20:19:03Z) - When Ensembling Smaller Models is More Efficient than Single Large
Models [52.38997176317532]
アンサンブルは高い精度で単一モデルより優れており、計算に要する総FLOPは少ない。
これは、アンサンブルの出力の多様性がより大きなモデルを訓練するよりも効率的であることを示す興味深い観察結果である。
論文 参考訳(メタデータ) (2020-05-01T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。