論文の概要: AI-Supported Assessment of Load Safety
- arxiv url: http://arxiv.org/abs/2306.03795v1
- Date: Tue, 6 Jun 2023 15:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 14:46:00.759503
- Title: AI-Supported Assessment of Load Safety
- Title(参考訳): ai支援による負荷安全評価
- Authors: Julius Sch\"oning and Niklas Kruse
- Abstract要約: 2020年、トラックの11,371件の警察チェックが行われ、その間に9.6%(1091件)の負荷安全規則違反が検出された。
この研究は、ロードプロセスの後にトラック運転手やロードマスターが撮影した負荷の写真を、ロードの安全性を評価するために使う方法を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Load safety assessment and compliance is an essential step in the corporate
process of every logistics service provider. In 2020, a total of 11,371 police
checks of trucks were carried out, during which 9.6% (1091) violations against
the load safety regulations were detected. For a logistic service provider,
every load safety violation results in height fines and damage to reputation.
An assessment of load safety supported by artificial intelligence (AI) will
reduce the risk of accidents by unsecured loads and fines during safety
assessments. This work shows how photos of the load, taken by the truck driver
or the loadmaster after the loading process, can be used to assess load safety.
By a trained two-stage artificial neural network (ANN), these photos are
classified into three different classes I) cargo loaded safely, II) cargo
loaded unsafely, and III) unusable image. By applying several architectures of
convolutional neural networks (CNN), it can be shown that it is possible to
distinguish between unusable and usable images for cargo safety assessment.
This distinction is quite crucial since the truck driver and the loadmaster
sometimes provide photos without the essential image features like the case
structure of the truck and the whole cargo. A human operator or another ANN
will then assess the load safety within the second stage.
- Abstract(参考訳): 負荷安全評価とコンプライアンスは、すべてのロジスティクスサービスプロバイダのコーポレートプロセスにおいて不可欠なステップです。
2020年には、トラックの警察による検査が11,371回行われ、その間に9.6%(1091)の負荷安全規則違反が検出された。
ロジスティックサービスプロバイダの場合、すべてのロードセーフティ違反は、高い罰金と評判へのダメージをもたらす。
人工知能(ai)が支援する負荷安全性の評価は、安全アセスメント中の安全でない負荷と罰金による事故のリスクを低減させる。
本研究は,荷積み作業の後にトラック運転手やロードマスターが撮影した荷重の写真を用いて,荷の安全性を評価する方法を示したものである。
訓練された2段階の人工知能ニューラルネットワーク(ANN)により、これらの写真は安全にロードされる3つの異なるクラスI、安全にロードされる2、安全ではないロードされる2、使用できないイメージIIIに分類される。
畳み込みニューラルネットワーク(CNN)のいくつかのアーキテクチャを適用することで、貨物の安全評価に使用できない画像と使用可能な画像を区別できることが示される。
トラックの運転手とロードマスターは、トラックのケース構造や貨物全体のような重要な画像機能なしで写真を提供することがあるため、この区別は非常に重要である。
人間のオペレータか他のANNは、第2段階の負荷安全性を評価する。
関連論文リスト
- Robustness Assessment of a Runway Object Classifier for Safe Aircraft Taxiing [1.1454187767262163]
ディープニューラルネットワーク(DNN)は多くの計算問題の顕著な解決策になりつつある。
本稿では,航空機のタクシー走行時に使用する画像分類器DNNのロバスト性を実証する。
我々は、このDNNの頑健さを、ノイズ、明るさ、コントラストという3つの一般的なイメージ摂動タイプに評価するために、フォーマルな手法を用いています。
論文 参考訳(メタデータ) (2024-01-08T12:19:46Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion
Models? [54.20337292389793]
Ring-A-Bellは、T2I拡散モデルのためのモデルに依存しないレッドチームツールである。
これは、不適切なコンテンツの生成に対応する拡散モデルに対する問題的プロンプトを特定する。
この結果から,安全プロンプトベンチマークの操作により,既存の安全メカニズムを回避できると考えられるプロンプトを変換できることが示唆された。
論文 参考訳(メタデータ) (2023-10-16T02:11:20Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
本研究では,機械学習(ML)とディープラーニング(DL)アーキテクチャに基づく軽量な行動ベースドライバ認証システムの開発を行う。
我々は、新たな回避攻撃のクラスであるGAN-CANを初めて提案し、攻撃者が完璧な攻撃成功率でこれらのシステムをどのように活用できるかを示した。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - A Multiplicative Value Function for Safe and Efficient Reinforcement
Learning [131.96501469927733]
本稿では,安全評論家と報酬評論家からなる新しい乗法値関数を持つモデルフリーRLアルゴリズムを提案する。
安全評論家は、制約違反の確率を予測し、制限のないリターンのみを見積もる報酬批評家を割引する。
安全制約を付加した古典的RLベンチマークや、画像を用いたロボットナビゲーションタスク、生のライダースキャンを観察する4つの環境において、本手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-07T18:29:15Z) - Vision-based Conflict Detection within Crowds based on High-Resolution
Human Pose Estimation for Smart and Safe Airport [5.694579371558041]
本稿では,集団における衝突行動の分類を行う機械学習モデルの開発について述べる。
支持ベクトルマシン(SVM)は94.37%の精度を達成した。
結果として得られたモデルは、膨大な数の潜在的な乗客に対処するために改良が加えられた場合、空港内に配備される可能性がある。
論文 参考訳(メタデータ) (2022-07-01T14:54:12Z) - Network-level Safety Metrics for Overall Traffic Safety Assessment: A
Case Study [7.8191100993403495]
本稿では,道路インフラストラクチャセンサによる画像の処理による交通流の安全性評価のための,ネットワークレベルの新しい安全性指標について述べる。
安全性指標とクラッシュデータの統合解析により,代表的なネットワークレベルの安全性指標とクラッシュ頻度との洞察力のある時間的および空間的相関が明らかになった。
論文 参考訳(メタデータ) (2022-01-27T19:07:08Z) - Image Segmentation to Identify Safe Landing Zones for Unmanned Aerial
Vehicles [2.18624447693809]
本稿では,UAV上の1台のRGBカメラで撮影した簡単な画像を用いて,安全な着陸地点と安全でない着陸地点を識別する。
ビデオではなく画像で作業することで、人間の介入を必要とせずに、ドローンの安全な着陸ゾーンを特定するのに必要なエネルギーを削減できる。
論文 参考訳(メタデータ) (2021-11-29T14:41:13Z) - BarrierNet: A Safety-Guaranteed Layer for Neural Networks [50.86816322277293]
BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
本研究では,2次元空間と3次元空間における交通統合やロボットナビゲーションといった一連の制御問題について評価する。
論文 参考訳(メタデータ) (2021-11-22T15:38:11Z) - Weakly Supervised Reinforcement Learning for Autonomous Highway Driving
via Virtual Safety Cages [42.57240271305088]
規則に基づく安全ケージは、車両の安全性の向上と強化学習エージェントに対する弱い監督を提供する自律型車両の縦方向制御に対する強化学習ベースのアプローチを提示する。
モデルパラメータが制約されたり,あるいは最適化されていない場合,モデルが強化学習だけでは運転を訓練できない場合でも,モデルが安全な運転方針を学習できることを示す。
論文 参考訳(メタデータ) (2021-03-17T15:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。