論文の概要: Insights into Data through Model Behaviour: An Explainability-driven
Strategy for Data Auditing for Responsible Computer Vision Applications
- arxiv url: http://arxiv.org/abs/2106.09177v1
- Date: Wed, 16 Jun 2021 23:46:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:05:43.434637
- Title: Insights into Data through Model Behaviour: An Explainability-driven
Strategy for Data Auditing for Responsible Computer Vision Applications
- Title(参考訳): モデル行動を通じたデータに関する洞察:責任あるコンピュータビジョンアプリケーションのためのデータ監査のための説明可能性駆動戦略
- Authors: Alexander Wong, Adam Dorfman, Paul McInnis, and Hayden Gunraj
- Abstract要約: 本研究では,データ監査に対する説明可能性駆動型戦略について検討する。
2つの人気のある医療ベンチマークデータセットを監査することで、この戦略を実証する。
私たちは、ディープラーニングモデルに誤った理由を予測させる隠れたデータ品質の問題を発見します。
- 参考スコア(独自算出の注目度): 70.92379567261304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we take a departure and explore an explainability-driven
strategy to data auditing, where actionable insights into the data at hand are
discovered through the eyes of quantitative explainability on the behaviour of
a dummy model prototype when exposed to data. We demonstrate this strategy by
auditing two popular medical benchmark datasets, and discover hidden data
quality issues that lead deep learning models to make predictions for the wrong
reasons. The actionable insights gained from this explainability driven data
auditing strategy is then leveraged to address the discovered issues to enable
the creation of high-performing deep learning models with appropriate
prediction behaviour. The hope is that such an explainability-driven strategy
can be complimentary to data-driven strategies to facilitate for more
responsible development of machine learning algorithms for computer vision
applications.
- Abstract(参考訳): そこで本研究では,データに露出したダミーモデルプロトタイプの動作に関する定量的説明可能性の観点から,手前のデータに対する行動可能な洞察が発見されるデータ監査への説明可能性に基づく戦略を考察する。
2つの一般的な医療ベンチマークデータセットを監査することで、この戦略を実証し、誤った理由で予測を行うディープラーニングモデルにつながる隠れたデータ品質の問題を発見する。
この説明可能性駆動データ監査戦略から得られた行動可能な洞察は、検出された問題に対処するために活用され、適切な予測行動を伴うハイパフォーマンスなディープラーニングモデルの作成を可能にする。
このような説明可能性に基づく戦略がデータ駆動戦略に補完され、コンピュータビジョンアプリケーションのための機械学習アルゴリズムのより責任ある開発を促進することが期待されている。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Defogger: A Visual Analysis Approach for Data Exploration of Sensitive Data Protected by Differential Privacy [5.117818675551463]
我々は、基礎となる要件や利用可能な探査戦略を含む、対応する調査シナリオを説明する上で、主導権を握る。
提案手法は,ユーザの探索意図に応じて多様な探索戦略を提案するために,強化学習モデルを適用した。
相関パターンの不確かさを表す新しいビジュアルデザインを,提案手法をサポートするために試作システムに統合した。
論文 参考訳(メタデータ) (2024-07-28T02:14:12Z) - DISCOVER: A Data-driven Interactive System for Comprehensive Observation, Visualization, and ExploRation of Human Behaviour [6.716560115378451]
我々は,人間行動分析のための計算駆動型データ探索を効率化するために,モジュール型でフレキシブルでユーザフレンドリなソフトウェアフレームワークを導入する。
我々の主な目的は、高度な計算方法論へのアクセスを民主化することであり、これにより研究者は、広範囲の技術的熟練を必要とせずに、詳細な行動分析を行うことができる。
論文 参考訳(メタデータ) (2024-07-18T11:28:52Z) - Advancing continual lifelong learning in neural information retrieval: definition, dataset, framework, and empirical evaluation [3.2340528215722553]
連続的なニューラル情報検索の系統的なタスク定式化を示す。
包括的連続神経情報検索フレームワークを提案する。
経験的評価は,提案フレームワークが神経情報検索における破滅的な忘れ込みを効果的に防止できることを示唆している。
論文 参考訳(メタデータ) (2023-08-16T14:01:25Z) - Predicting Seriousness of Injury in a Traffic Accident: A New Imbalanced
Dataset and Benchmark [62.997667081978825]
本稿では,交通事故における傷害の重大性を予測するために,機械学習アルゴリズムの性能を評価する新しいデータセットを提案する。
データセットは、英国運輸省から公開されているデータセットを集約することで作成される。
論文 参考訳(メタデータ) (2022-05-20T21:15:26Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。