論文の概要: Commonsense Reasoning-Aided Autonomous Vehicle Systems
- arxiv url: http://arxiv.org/abs/2502.09233v1
- Date: Thu, 13 Feb 2025 11:53:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:40.353878
- Title: Commonsense Reasoning-Aided Autonomous Vehicle Systems
- Title(参考訳): コモンセンス推論支援自律走行システム
- Authors: Keegan Kimbrell,
- Abstract要約: この研究は、画像データを用いてAVシステムを改善するコモンセンス推論モデルを統合することを含む。
これにより、AVシステムはより正確な推論を行いつつ、より調整しやすく、説明しやすく、倫理的に実行できる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Autonomous Vehicle (AV) systems have been developed with a strong reliance on machine learning techniques. While machine learning approaches, such as deep learning, are extremely effective at tasks that involve observation and classification, they struggle when it comes to performing higher level reasoning about situations on the road. This research involves incorporating commonsense reasoning models that use image data to improve AV systems. This will allow AV systems to perform more accurate reasoning while also making them more adjustable, explainable, and ethical. This paper will discuss the findings so far and motivate its direction going forward.
- Abstract(参考訳): 自律走行車(AV)システムは、機械学習技術に強く依存して開発されている。
ディープラーニングのような機械学習アプローチは、観察と分類を含むタスクにおいて極めて効果的であるが、道路上の状況について高いレベルの推論を行う上では苦労する。
この研究は、画像データを用いてAVシステムを改善するコモンセンス推論モデルを統合することを含む。
これにより、AVシステムはより正確な推論を行いつつ、より調整しやすく、説明しやすく、倫理的に実行できる。
本稿は、これまでの知見を議論し、今後の方向性を動機づけるものである。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Interpretable UAV Collision Avoidance using Deep Reinforcement Learning [1.2693545159861856]
自己注意モデルを用いた深部強化学習を用いた自律型UAV飛行を提案する。
気象や環境によってアルゴリズムをテストした結果,従来のDeep Reinforcement Learningアルゴリズムと比較して頑健であることが判明した。
論文 参考訳(メタデータ) (2021-05-25T23:21:54Z) - Explanations in Autonomous Driving: A Survey [7.353589916907923]
我々は、説明可能な自動運転における既存の作業の包括的調査を行う。
我々は、AVの開発、使用、規制に関わる様々な利害関係者を特定し、分類する。
論文 参考訳(メタデータ) (2021-03-09T00:31:30Z) - Applying Machine Learning in Self-Adaptive Systems: A Systematic
Literature Review [15.953995937484176]
現在、自己適応システムにおける機械学習の使用に関する体系的な概要はない。
我々は、従来のモニター・アナライズ・プラン・エクユートフィードバックループ(MAPE)に基づく自己適応システムに焦点を当てる。
研究の質問は、自己適応システムにおける機械学習の使用を動機づける問題、自己適応における学習の重要なエンジニアリング側面、オープンな課題に焦点を当てている。
論文 参考訳(メタデータ) (2021-03-06T13:45:59Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explaining Autonomous Driving by Learning End-to-End Visual Attention [25.09407072098823]
現在のディープラーニングベースの自律運転アプローチは、いくつかの制御されたシナリオにおいて、本番環境へのデプロイも実現している。
最も人気があり魅力的なアプローチの1つは、センサーが認識したデータから直接車両の制御を学習することに依存している。
このアプローチの主な欠点は、他の学習問題と同様に、説明可能性の欠如である。実際、ディープネットワークは、なぜそのような決定を下されたのかを何のフィードバックも与えずに、これまで見られた駆動パターンによって予測を出力するブラックボックスとして機能する。
論文 参考訳(メタデータ) (2020-06-05T10:12:31Z) - When Autonomous Systems Meet Accuracy and Transferability through AI: A
Survey [17.416847623629362]
本稿では,自律システムにおける学習に基づくアプローチを,正確性と伝達可能性の観点から概観する。
敵の学習の利点を示すため、正確性や伝達可能性の見直しに重点を置いている。
本稿では,自律システムにおける対人学習,RL,メタラーニングの課題と今後の課題について論じる。
論文 参考訳(メタデータ) (2020-03-29T04:50:22Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。