論文の概要: ESCAPE: Countering Systematic Errors from Machine's Blind Spots via
Interactive Visual Analysis
- arxiv url: http://arxiv.org/abs/2303.09657v1
- Date: Thu, 16 Mar 2023 21:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:17:17.008456
- Title: ESCAPE: Countering Systematic Errors from Machine's Blind Spots via
Interactive Visual Analysis
- Title(参考訳): ESCAPE:インタラクティブビジュアル分析による機械の盲点からのシステムエラーの対応
- Authors: Yongsu Ahn, Yu-Ru Lin, Panpan Xu, Zeng Dai
- Abstract要約: 本稿では,系統的エラーに対応するためのヒューマン・イン・ザ・ループ・ワークフローを促進する視覚解析システムであるESCAPEを提案する。
このシステムでは, 利用者が素早い関連を検査しやすくすることで, 利用者が自然に関連付けられた誤分類を認識できるようにする。
また、概念と事例の関連をより正確に定量化するための相対的概念関連法と、急激な関連を緩和するためのデバイアス法という2つの統計的アプローチを提案する。
- 参考スコア(独自算出の注目度): 13.97436974677563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classification models learn to generalize the associations between data
samples and their target classes. However, researchers have increasingly
observed that machine learning practice easily leads to systematic errors in AI
applications, a phenomenon referred to as AI blindspots. Such blindspots arise
when a model is trained with training samples (e.g., cat/dog classification)
where important patterns (e.g., black cats) are missing or
periphery/undesirable patterns (e.g., dogs with grass background) are
misleading towards a certain class. Even more sophisticated techniques cannot
guarantee to capture, reason about, and prevent the spurious associations. In
this work, we propose ESCAPE, a visual analytic system that promotes a
human-in-the-loop workflow for countering systematic errors. By allowing human
users to easily inspect spurious associations, the system facilitates users to
spontaneously recognize concepts associated misclassifications and evaluate
mitigation strategies that can reduce biased associations. We also propose two
statistical approaches, relative concept association to better quantify the
associations between a concept and instances, and debias method to mitigate
spurious associations. We demonstrate the utility of our proposed ESCAPE system
and statistical measures through extensive evaluation including quantitative
experiments, usage scenarios, expert interviews, and controlled user
experiments.
- Abstract(参考訳): 分類モデルは、データサンプルとターゲットクラスの間の関連を一般化することを学ぶ。
しかし、研究者たちは、機械学習の実践がAIアプリケーションにおける体系的なエラーに容易に結びつくことを、ますます観察している。
このようなブラインドスポットは、重要なパターン(例えば、黒猫)が欠落しているトレーニングサンプル(例えば、猫/犬の分類)や、周囲のパターン(例えば、草の背景を持つ犬)が特定のクラスに向かって誤解されている場合に発生する。
より高度な技術は、捕え、推論し、急激な関連を防ぐことは保証できない。
本研究では,系統的エラーに対応するためのヒューマン・イン・ザ・ループ・ワークフローを促進する視覚解析システムであるESCAPEを提案する。
このシステムは, 利用者が素早い関連性を容易に検査できるようにすることで, 誤分類に関する概念を自然に認識し, 偏りを低減できる緩和戦略を評価する。
また,概念と事例の関連をよりよく定量化する相対的概念連想法と,散発的な関係を緩和するデビアス法という2つの統計的アプローチを提案する。
本研究では,定量的実験,使用シナリオ,専門家インタビュー,制御されたユーザ実験など,広範囲な評価を通じて,提案するESCAPEシステムと統計指標の有用性を実証する。
関連論文リスト
- Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - Discover and Cure: Concept-aware Mitigation of Spurious Correlation [14.579651844642616]
ディープニューラルネットワークは、しばしば予測を行うために急激な相関に依存する。
本稿では,この問題に対処するための解釈可能なフレームワークであるDiscover and Cure (DISC)を提案する。
DISCは既存のアプローチよりも優れた一般化能力と解釈性を提供する。
論文 参考訳(メタデータ) (2023-05-01T04:19:27Z) - Fairness in Forecasting of Observations of Linear Dynamical Systems [10.762748665074794]
本稿では, 時系列予測問題において, 公平性と即時公正性の2つの自然概念を導入する。
公平性に制約された学習問題の最適化のためのグローバル収束手法を示す。
本手法の有効性を示すために,保険申請によるバイアスデータセットとよく知られたCompASデータセットについて検討した。
論文 参考訳(メタデータ) (2022-09-12T14:32:12Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Hybrid Dynamic Contrast and Probability Distillation for Unsupervised
Person Re-Id [109.1730454118532]
非監督的人物再識別(Re-Id)は、リードワールドビデオ監視システムにおける実践的応用により注目されている。
本稿では,ハイブリッド動的クラスタコントラストと確率蒸留アルゴリズムを提案する。
教師なしRe-Id問題を局所-言語的ダイナミックコントラスト学習と自己教師付き確率蒸留の枠組みに統合する。
論文 参考訳(メタデータ) (2021-09-29T02:56:45Z) - Towards Fair Affective Robotics: Continual Learning for Mitigating Bias
in Facial Expression and Action Unit Recognition [5.478764356647437]
顔認識(FER)システムの公平性を高めるための効果的な戦略として、継続的学習(CL)を提案します。
我々は,様々な最先端バイアス緩和手法と,表現認識と行動単位検出タスクの公平性のためのCLベースの戦略を比較した。
実験の結果,CLに基づく手法は,平均的に一般的なバイアス緩和法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:36:14Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。