論文の概要: Insights into Data through Model Behaviour: An Explainability-driven
Strategy for Data Auditing for Responsible Computer Vision Applications
- arxiv url: http://arxiv.org/abs/2106.09177v1
- Date: Wed, 16 Jun 2021 23:46:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:05:43.434637
- Title: Insights into Data through Model Behaviour: An Explainability-driven
Strategy for Data Auditing for Responsible Computer Vision Applications
- Title(参考訳): モデル行動を通じたデータに関する洞察:責任あるコンピュータビジョンアプリケーションのためのデータ監査のための説明可能性駆動戦略
- Authors: Alexander Wong, Adam Dorfman, Paul McInnis, and Hayden Gunraj
- Abstract要約: 本研究では,データ監査に対する説明可能性駆動型戦略について検討する。
2つの人気のある医療ベンチマークデータセットを監査することで、この戦略を実証する。
私たちは、ディープラーニングモデルに誤った理由を予測させる隠れたデータ品質の問題を発見します。
- 参考スコア(独自算出の注目度): 70.92379567261304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we take a departure and explore an explainability-driven
strategy to data auditing, where actionable insights into the data at hand are
discovered through the eyes of quantitative explainability on the behaviour of
a dummy model prototype when exposed to data. We demonstrate this strategy by
auditing two popular medical benchmark datasets, and discover hidden data
quality issues that lead deep learning models to make predictions for the wrong
reasons. The actionable insights gained from this explainability driven data
auditing strategy is then leveraged to address the discovered issues to enable
the creation of high-performing deep learning models with appropriate
prediction behaviour. The hope is that such an explainability-driven strategy
can be complimentary to data-driven strategies to facilitate for more
responsible development of machine learning algorithms for computer vision
applications.
- Abstract(参考訳): そこで本研究では,データに露出したダミーモデルプロトタイプの動作に関する定量的説明可能性の観点から,手前のデータに対する行動可能な洞察が発見されるデータ監査への説明可能性に基づく戦略を考察する。
2つの一般的な医療ベンチマークデータセットを監査することで、この戦略を実証し、誤った理由で予測を行うディープラーニングモデルにつながる隠れたデータ品質の問題を発見する。
この説明可能性駆動データ監査戦略から得られた行動可能な洞察は、検出された問題に対処するために活用され、適切な予測行動を伴うハイパフォーマンスなディープラーニングモデルの作成を可能にする。
このような説明可能性に基づく戦略がデータ駆動戦略に補完され、コンピュータビジョンアプリケーションのための機械学習アルゴリズムのより責任ある開発を促進することが期待されている。
関連論文リスト
- Advancing continual lifelong learning in neural information retrieval:
definition, dataset, framework, and empirical evaluation [3.63475127126282]
連続的なニューラル情報検索の系統的なタスク定式化を示す。
包括的連続神経情報検索フレームワークを提案する。
経験的評価は,提案フレームワークが神経情報検索における破滅的な忘れ込みを効果的に防止できることを示唆している。
論文 参考訳(メタデータ) (2023-08-16T14:01:25Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Non-adversarial Robustness of Deep Learning Methods for Computer Vision [0.0]
非敵対的ロバスト性(英: non-adversarial robustness)、あるいは自然ロバスト性(英: natural robustness)は、ディープラーニングモデルの特性である。
本稿では,コンピュータビジョン手法のロバスト性向上のための最新の技術の概要を紹介する。
論文 参考訳(メタデータ) (2023-05-24T10:21:31Z) - Predicting Seriousness of Injury in a Traffic Accident: A New Imbalanced
Dataset and Benchmark [62.997667081978825]
本稿では,交通事故における傷害の重大性を予測するために,機械学習アルゴリズムの性能を評価する新しいデータセットを提案する。
データセットは、英国運輸省から公開されているデータセットを集約することで作成される。
論文 参考訳(メタデータ) (2022-05-20T21:15:26Z) - Leveraging Adversarial Examples to Quantify Membership Information
Leakage [30.55736840515317]
パターン認識モデルにおけるメンバシップ推論の問題に対処する新しいアプローチを開発する。
この量はトレーニングデータに属する可能性を反映していると我々は主張する。
我々の手法は、最先端の戦略に匹敵する、あるいは上回る性能を発揮する。
論文 参考訳(メタデータ) (2022-03-17T19:09:38Z) - Representations of epistemic uncertainty and awareness in data-driven
strategies [0.0]
本稿では,エージェントによる知識表現とその伝達における不確実性の理論モデルを提案する。
我々は、推論、嗜好関係、情報測度の観点から、等価な知識表現を考察する。
本稿では,データ駆動戦略における提案モデルの有効性について論じる。
論文 参考訳(メタデータ) (2021-10-21T21:18:21Z) - Knowledge-driven Active Learning [70.37119719069499]
アクティブな学習戦略は、ディープラーニングモデルをトレーニングするために必要なラベル付きデータの量を最小限にすることを目的としている。
ほとんどの積極的な戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
本稿では、一般的なドメイン知識を考慮し、エキスパートでないユーザがより少ないサンプルでモデルを訓練できるようにする。
論文 参考訳(メタデータ) (2021-10-15T06:11:53Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。