論文の概要: AI-Supported Assessment of Load Safety
- arxiv url: http://arxiv.org/abs/2306.03795v1
- Date: Tue, 6 Jun 2023 15:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 14:46:00.759503
- Title: AI-Supported Assessment of Load Safety
- Title(参考訳): ai支援による負荷安全評価
- Authors: Julius Sch\"oning and Niklas Kruse
- Abstract要約: 2020年、トラックの11,371件の警察チェックが行われ、その間に9.6%(1091件)の負荷安全規則違反が検出された。
この研究は、ロードプロセスの後にトラック運転手やロードマスターが撮影した負荷の写真を、ロードの安全性を評価するために使う方法を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Load safety assessment and compliance is an essential step in the corporate
process of every logistics service provider. In 2020, a total of 11,371 police
checks of trucks were carried out, during which 9.6% (1091) violations against
the load safety regulations were detected. For a logistic service provider,
every load safety violation results in height fines and damage to reputation.
An assessment of load safety supported by artificial intelligence (AI) will
reduce the risk of accidents by unsecured loads and fines during safety
assessments. This work shows how photos of the load, taken by the truck driver
or the loadmaster after the loading process, can be used to assess load safety.
By a trained two-stage artificial neural network (ANN), these photos are
classified into three different classes I) cargo loaded safely, II) cargo
loaded unsafely, and III) unusable image. By applying several architectures of
convolutional neural networks (CNN), it can be shown that it is possible to
distinguish between unusable and usable images for cargo safety assessment.
This distinction is quite crucial since the truck driver and the loadmaster
sometimes provide photos without the essential image features like the case
structure of the truck and the whole cargo. A human operator or another ANN
will then assess the load safety within the second stage.
- Abstract(参考訳): 負荷安全評価とコンプライアンスは、すべてのロジスティクスサービスプロバイダのコーポレートプロセスにおいて不可欠なステップです。
2020年には、トラックの警察による検査が11,371回行われ、その間に9.6%(1091)の負荷安全規則違反が検出された。
ロジスティックサービスプロバイダの場合、すべてのロードセーフティ違反は、高い罰金と評判へのダメージをもたらす。
人工知能(ai)が支援する負荷安全性の評価は、安全アセスメント中の安全でない負荷と罰金による事故のリスクを低減させる。
本研究は,荷積み作業の後にトラック運転手やロードマスターが撮影した荷重の写真を用いて,荷の安全性を評価する方法を示したものである。
訓練された2段階の人工知能ニューラルネットワーク(ANN)により、これらの写真は安全にロードされる3つの異なるクラスI、安全にロードされる2、安全ではないロードされる2、使用できないイメージIIIに分類される。
畳み込みニューラルネットワーク(CNN)のいくつかのアーキテクチャを適用することで、貨物の安全評価に使用できない画像と使用可能な画像を区別できることが示される。
トラックの運転手とロードマスターは、トラックのケース構造や貨物全体のような重要な画像機能なしで写真を提供することがあるため、この区別は非常に重要である。
人間のオペレータか他のANNは、第2段階の負荷安全性を評価する。
関連論文リスト
- SoK: Security of the Image Processing Pipeline in Autonomous Vehicles [1.648591296466459]
自動運転車の画像処理パイプラインのセキュリティと堅牢性の研究を組み合わせる。
自動車セキュリティ標準ISO 21434を用いて攻撃リスクを分類する。
すべての層にまたがる様々なパラメータに影響を与えることができる組込みテストベッドを提示する。
論文 参考訳(メタデータ) (2024-09-02T13:10:53Z) - What Makes and Breaks Safety Fine-tuning? A Mechanistic Study [64.9691741899956]
安全性の微調整は、大規模な言語モデル(LLM)を、安全なデプロイメントのための人間の好みに合わせるのに役立つ。
安全でない入力の健全な側面をキャプチャする合成データ生成フレームワークを設計する。
これを用いて,3つのよく知られた安全微調整手法について検討する。
論文 参考訳(メタデータ) (2024-07-14T16:12:57Z) - LADI v2: Multi-label Dataset and Classifiers for Low-Altitude Disaster Imagery [0.23108201502462672]
LADI v2データセットは、アメリカ合衆国でシビル・エア・パトロールによって撮影された約10,000の災害画像のキュレートされたデータセットである。
2つの事前訓練されたベースライン分類器を提供し、その性能を多ラベル分類における最先端の視覚言語モデルと比較する。
データとコードは、緊急管理研究およびアプリケーションのためのコンピュータビジョンモデルの開発をサポートするために、一般公開されている。
論文 参考訳(メタデータ) (2024-06-04T20:51:04Z) - Safety through Permissibility: Shield Construction for Fast and Safe Reinforcement Learning [57.84059344739159]
シールドディング」は、強化学習(RL)の安全性を強制する一般的な手法である
安全と遮蔽構造に対処する新しい許容性に基づく枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T18:00:21Z) - Robustness Assessment of a Runway Object Classifier for Safe Aircraft Taxiing [1.1454187767262163]
ディープニューラルネットワーク(DNN)は多くの計算問題の顕著な解決策になりつつある。
本稿では,航空機のタクシー走行時に使用する画像分類器DNNのロバスト性を実証する。
我々は、このDNNの頑健さを、ノイズ、明るさ、コントラストという3つの一般的なイメージ摂動タイプに評価するために、フォーマルな手法を用いています。
論文 参考訳(メタデータ) (2024-01-08T12:19:46Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion Models? [52.238883592674696]
Ring-A-Bellは、T2I拡散モデルのためのモデルに依存しないレッドチームツールである。
これは、不適切なコンテンツの生成に対応する拡散モデルに対する問題的プロンプトを特定する。
この結果から,安全プロンプトベンチマークの操作により,既存の安全メカニズムを回避できると考えられるプロンプトを変換できることが示唆された。
論文 参考訳(メタデータ) (2023-10-16T02:11:20Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Vision-based Conflict Detection within Crowds based on High-Resolution
Human Pose Estimation for Smart and Safe Airport [5.694579371558041]
本稿では,集団における衝突行動の分類を行う機械学習モデルの開発について述べる。
支持ベクトルマシン(SVM)は94.37%の精度を達成した。
結果として得られたモデルは、膨大な数の潜在的な乗客に対処するために改良が加えられた場合、空港内に配備される可能性がある。
論文 参考訳(メタデータ) (2022-07-01T14:54:12Z) - Image Segmentation to Identify Safe Landing Zones for Unmanned Aerial
Vehicles [2.18624447693809]
本稿では,UAV上の1台のRGBカメラで撮影した簡単な画像を用いて,安全な着陸地点と安全でない着陸地点を識別する。
ビデオではなく画像で作業することで、人間の介入を必要とせずに、ドローンの安全な着陸ゾーンを特定するのに必要なエネルギーを削減できる。
論文 参考訳(メタデータ) (2021-11-29T14:41:13Z) - BarrierNet: A Safety-Guaranteed Layer for Neural Networks [50.86816322277293]
BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
本研究では,2次元空間と3次元空間における交通統合やロボットナビゲーションといった一連の制御問題について評価する。
論文 参考訳(メタデータ) (2021-11-22T15:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。