論文の概要: Smaller is Better: Enhancing Transparency in Vehicle AI Systems via Pruning
- arxiv url: http://arxiv.org/abs/2509.20148v2
- Date: Sun, 05 Oct 2025 20:01:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:28:10.764155
- Title: Smaller is Better: Enhancing Transparency in Vehicle AI Systems via Pruning
- Title(参考訳): より小さくなる - プルーニングによる車載AIシステムの透明性向上
- Authors: Sanish Suwal, Shaurya Garg, Dipkamal Bhusal, Michael Clifford, Nidhi Rastogi,
- Abstract要約: ポストホックの説明は、接続された自動運転車に透明性を提供する。
これらの説明の品質と信頼性は、モデル決定を表現する上での矛盾と忠実性の欠如のためにしばしば疑問視される。
本稿では, 自然訓練, 対人訓練, プルーニングの3つの方法が, ポストホックな説明の質に及ぼす影響について検討する。
- 参考スコア(独自算出の注目度): 2.555413599705371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Connected and autonomous vehicles continue to heavily rely on AI systems, where transparency and security are critical for trust and operational safety. Post-hoc explanations provide transparency to these black-box like AI models but the quality and reliability of these explanations is often questioned due to inconsistencies and lack of faithfulness in representing model decisions. This paper systematically examines the impact of three widely used training approaches, namely natural training, adversarial training, and pruning, affect the quality of post-hoc explanations for traffic sign classifiers. Through extensive empirical evaluation, we demonstrate that pruning significantly enhances the comprehensibility and faithfulness of explanations (using saliency maps). Our findings reveal that pruning not only improves model efficiency but also enforces sparsity in learned representation, leading to more interpretable and reliable decisions. Additionally, these insights suggest that pruning is a promising strategy for developing transparent deep learning models, especially in resource-constrained vehicular AI systems.
- Abstract(参考訳): 接続された自動運転車は、信頼と運用の安全のために透明性とセキュリティが不可欠であるAIシステムに大きく依存し続けている。
ポストホックな説明は、これらのブラックボックスにAIモデルのような透明性を提供するが、これらの説明の品質と信頼性は、モデル決定を表現する上での矛盾と忠実性の欠如のためにしばしば疑問視される。
本稿では, 自然学習, 対人訓練, プルーニングという, 広く使われている3つの訓練手法が, 交通標識分類器におけるポストホックな説明の質に与える影響を系統的に検討する。
広範な経験的評価を通じて,プルーニングは説明の理解性と忠実性(サリエンシマップを用いた)を大幅に向上させることを示した。
以上の結果から,プルーニングはモデル効率を向上するだけでなく,学習表現の空間性も向上し,より解釈可能で信頼性の高い意思決定につながることが明らかとなった。
さらに、これらの洞察は、プルーニングが、特にリソースに制約された車載AIシステムにおいて、透明なディープラーニングモデルを開発するための有望な戦略であることを示唆している。
関連論文リスト
- Investigating the Duality of Interpretability and Explainability in Machine Learning [2.8311451575532156]
複雑な「ブラックボックス」モデルは異常な予測性能を示す。
その本質的に不透明な性質は、透明性と解釈可能性に関する懸念を提起する。
本質的に解釈可能なモデルを開発するのではなく、これらのモデルを説明することに注力しています。
論文 参考訳(メタデータ) (2025-03-27T10:48:40Z) - Explainable artificial intelligence (XAI): from inherent explainability to large language models [0.0]
説明可能なAI(XAI)技術は、機械学習モデルの説明可能性や解釈可能性を促進する。
本稿では、本質的に解釈可能なモデルから現代的なアプローチまで、説明可能なAI手法の進歩について詳述する。
我々は、視覚言語モデル(VLM)フレームワークを利用して、他の機械学習モデルの説明可能性を自動化または改善する説明可能なAI技術についてレビューする。
論文 参考訳(メタデータ) (2025-01-17T06:16:57Z) - Representation Engineering: A Top-Down Approach to AI Transparency [130.33981757928166]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - VATLD: A Visual Analytics System to Assess, Understand and Improve
Traffic Light Detection [15.36267013724161]
本稿では,自律運転アプリケーションにおける交通信号検知器の精度とロバスト性を評価・理解・改善する視覚分析システム,VATLDを提案する。
歪んだ表現学習は、人間に親しみやすい視覚的要約で人間の認知を強化するために、データ意味を抽出する。
また、視覚分析システムであるVATLDによる様々な性能改善戦略の有効性を実証し、自律運転における安全クリティカルな応用の実践的意義を示す。
論文 参考訳(メタデータ) (2020-09-27T22:39:00Z) - Adversarial Training Reduces Information and Improves Transferability [81.59364510580738]
近年の研究では, 頑健性に加えて, 可逆性などの望ましい特性が期待できることが示されている。
本稿では,新たなタスクへの線形転送性の向上を図り,表現の伝達可能性とソースタスクの精度の間に新たなトレードオフが生じていることを示す。
論文 参考訳(メタデータ) (2020-07-22T08:30:16Z) - Explaining Autonomous Driving by Learning End-to-End Visual Attention [25.09407072098823]
現在のディープラーニングベースの自律運転アプローチは、いくつかの制御されたシナリオにおいて、本番環境へのデプロイも実現している。
最も人気があり魅力的なアプローチの1つは、センサーが認識したデータから直接車両の制御を学習することに依存している。
このアプローチの主な欠点は、他の学習問題と同様に、説明可能性の欠如である。実際、ディープネットワークは、なぜそのような決定を下されたのかを何のフィードバックも与えずに、これまで見られた駆動パターンによって予測を出力するブラックボックスとして機能する。
論文 参考訳(メタデータ) (2020-06-05T10:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。