論文の概要: Robustness Verification for Knowledge-Based Logic of Risky Driving
Scenes
- arxiv url: http://arxiv.org/abs/2312.16364v1
- Date: Wed, 27 Dec 2023 00:13:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 19:51:55.389877
- Title: Robustness Verification for Knowledge-Based Logic of Risky Driving
Scenes
- Title(参考訳): リスク駆動シーンの知識に基づく論理のロバスト性検証
- Authors: Xia Wang, Anda Liang, Jonathan Sprinkle and Taylor T. Johnson
- Abstract要約: Data.govから72の事故データセットを収集し、それらを州別に整理します。
我々は、各州のデータセット上で決定木とXGBoostモデルをトレーニングし、事故判定ロジックを導出する。
- 参考スコア(独自算出の注目度): 8.388107085036571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many decision-making scenarios in modern life benefit from the decision
support of artificial intelligence algorithms, which focus on a data-driven
philosophy and automated programs or systems. However, crucial decision issues
related to security, fairness, and privacy should consider more human knowledge
and principles to supervise such AI algorithms to reach more proper solutions
and to benefit society more effectively. In this work, we extract
knowledge-based logic that defines risky driving formats learned from public
transportation accident datasets, which haven't been analyzed in detail to the
best of our knowledge. More importantly, this knowledge is critical for
recognizing traffic hazards and could supervise and improve AI models in
safety-critical systems. Then we use automated verification methods to verify
the robustness of such logic. More specifically, we gather 72 accident datasets
from Data.gov and organize them by state. Further, we train Decision Tree and
XGBoost models on each state's dataset, deriving accident judgment logic.
Finally, we deploy robustness verification on these tree-based models under
multiple parameter combinations.
- Abstract(参考訳): 現代の人生における多くの意思決定シナリオは、データ駆動の哲学と自動プログラムまたはシステムに焦点を当てた人工知能アルゴリズムの決定サポートから恩恵を受ける。
しかし、セキュリティ、公正性、プライバシに関連する決定的な問題は、そのようなAIアルゴリズムをより適切なソリューションに到達し、より効果的に社会に利益をもたらすために、より人間の知識と原則を検討するべきである。
本研究では,公共交通機関の事故データから学習したリスクの高い運転形式を規定する知識に基づく論理を抽出し,その知識の最良の部分について詳細な分析を行っていない。
さらに重要なのは、この知識は交通の危険を認識するために重要であり、安全クリティカルなシステムのAIモデルを監督し、改善することができることだ。
次に,このような論理のロバスト性を検証するために,自動検証手法を用いる。
具体的には、data.govから72の事故データセットを収集し、状態別に整理する。
さらに、各状態のデータセット上で決定木とXGBoostモデルをトレーニングし、事故判定ロジックを導出する。
最後に,これらの木モデル上で複数のパラメータの組み合わせでロバスト性検証を行う。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Improving Explainable Object-induced Model through Uncertainty for
Automated Vehicles [13.514721609660521]
最近の説明可能な自動車両(AV)は、動作の説明を提供しながら、固有の不確実性に関連する重要な情報を無視している。
本研究は、意思決定の場面におけるオブジェクトの役割を優先する「対象誘導型」モデルアプローチに基づく。
また、不確実性によって導かれる先進的なトレーニング戦略についても検討する。
論文 参考訳(メタデータ) (2024-02-23T19:14:57Z) - Inherent Diverse Redundant Safety Mechanisms for AI-based Software
Elements in Automotive Applications [1.6495054381576084]
本稿では,自律走行システムにおける人工知能(AI)アルゴリズムの役割と課題について考察する。
主な関心事は、AIモデルの初期のトレーニングデータを超えて一般化する能力(と必要性)に関連している。
本稿では、自律運転のような安全クリティカルなアプリケーションにおける過信AIモデルに関連するリスクについて検討する。
論文 参考訳(メタデータ) (2024-02-13T04:15:26Z) - From DDMs to DNNs: Using process data and models of decision-making to
improve human-AI interactions [1.1510009152620668]
人工知能(AI)の研究は、意思決定が時間とともにどのように現れるかについての洞察に強い焦点をあてることから恩恵を受けるだろう、と私たちは主張する。
まず,ノイズの蓄積による決定を前提とした,高度に確立された計算フレームワークを提案する。
次に、マルチエージェントAIにおける現在のアプローチが、プロセスデータや意思決定のモデルをどの程度取り入れているかについて議論する。
論文 参考訳(メタデータ) (2023-08-29T11:27:22Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - On Safety Assessment of Artificial Intelligence [0.0]
人工知能の多くのモデル、特に機械学習は統計モデルであることを示す。
危険なランダム障害の予算の一部は、AIシステムの確率論的欠陥行動に使用される必要がある。
我々は、安全関連システムにおけるAIの利用に決定的な研究課題を提案する。
論文 参考訳(メタデータ) (2020-02-29T14:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。