論文の概要: Enhancing the Fairness and Performance of Edge Cameras with Explainable
AI
- arxiv url: http://arxiv.org/abs/2401.09852v1
- Date: Thu, 18 Jan 2024 10:08:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 17:10:24.336448
- Title: Enhancing the Fairness and Performance of Edge Cameras with Explainable
AI
- Title(参考訳): 説明可能なAIによるエッジカメラの公正性とパフォーマンス向上
- Authors: Truong Thanh Hung Nguyen, Vo Thanh Khang Nguyen, Quoc Hung Cao, Van
Binh Truong, Quoc Khanh Nguyen, Hung Cao
- Abstract要約: 本研究では,モデルデバッグに Explainable AI (XAI) を用いた診断手法を提案する。
トレーニングデータセットが主なバイアス源であることに気付き、ソリューションとしてモデル拡張を提案しました。
- 参考スコア(独自算出の注目度): 3.4719449211802456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rising use of Artificial Intelligence (AI) in human detection on Edge
camera systems has led to accurate but complex models, challenging to interpret
and debug. Our research presents a diagnostic method using Explainable AI (XAI)
for model debugging, with expert-driven problem identification and solution
creation. Validated on the Bytetrack model in a real-world office Edge network,
we found the training dataset as the main bias source and suggested model
augmentation as a solution. Our approach helps identify model biases, essential
for achieving fair and trustworthy models.
- Abstract(参考訳): エッジカメラシステムにおける人間の検出における人工知能(AI)の利用の増加は、正確だが複雑なモデルをもたらし、解釈とデバッグを困難にしている。
本研究では,モデルデバッギングに Explainable AI (XAI) を用いた診断手法を提案する。
実世界のオフィスエッジネットワークでBytetrackモデルを検証することで、トレーニングデータセットを主なバイアスソースとして見つけ、ソリューションとしてモデル拡張を提案しました。
私たちのアプローチは、公正で信頼できるモデルを達成するために不可欠なモデルバイアスを特定するのに役立ちます。
関連論文リスト
- Red Teaming Models for Hyperspectral Image Analysis Using Explainable AI [10.23159210236409]
本稿では,ハイパースペクトル画像を用いた機械学習モデルの検討手法を提案する。
我々は、説明可能なAI(XAI)ドメインからのポストホックな説明手法を用いて、最高のパフォーマンスモデルを評価する。
当社のアプローチは,重要な欠点を指摘し,検証することで,モデルを効果的にチーム化するものです。
論文 参考訳(メタデータ) (2024-03-12T18:28:32Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - QualEval: Qualitative Evaluation for Model Improvement [86.29905469151566]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Extending CAM-based XAI methods for Remote Sensing Imagery Segmentation [7.735470452949379]
我々は,モデルの不確実性を測定するために,「エントロピー」に基づく新しいXAI評価手法とメトリクスを導入する。
本研究では,Entropyを用いて,対象クラス内の画素のセグメンテーションにおけるモデル不確実性を監視することがより適切であることを示す。
論文 参考訳(メタデータ) (2023-10-03T07:01:23Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Fusing Models with Complementary Expertise [44.60955450789187]
データ分布の相補的な知識で専門家モデルの出力を融合させるFoE(Fusion of Experts)問題を考える。
我々の方法は差別的タスクと生成的タスクの両方に当てはまる。
論文 参考訳(メタデータ) (2023-10-02T18:31:35Z) - A model-agnostic approach for generating Saliency Maps to explain
inferred decisions of Deep Learning Models [2.741266294612776]
本稿では,モデル出力にのみアクセス可能な有能マップを生成するためのモデルに依存しない手法を提案する。
我々は微分進化法を用いて、モデルの意思決定プロセスにおいて、どの画像ピクセルが最も影響があるかを特定する。
論文 参考訳(メタデータ) (2022-09-19T10:28:37Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Multi-Modal Anomaly Detection for Unstructured and Uncertain
Environments [5.677685109155077]
現代のロボットは、最小限の人間の監督で異常や故障を検出して回復する能力を必要とします。
本稿では,非構造的かつ不確実な環境での障害識別のための教師付き変分オートエンコーダ(SVAE)を提案する。
実地ロボットデータを用いた実験では,ベースライン法よりも障害同定性能が優れており,解釈可能な表現を学習できる。
論文 参考訳(メタデータ) (2020-12-15T21:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。