論文の概要: Monitoring Robustness and Individual Fairness
- arxiv url: http://arxiv.org/abs/2506.00496v1
- Date: Sat, 31 May 2025 10:27:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.105717
- Title: Monitoring Robustness and Individual Fairness
- Title(参考訳): ロバストさと個人的公正さのモニタリング
- Authors: Ashutosh Gupta, Thomas A. Henzinger, Konstantin Kueffner, Kaushik Mallik, David Pape,
- Abstract要約: デプロイされたブラックボックスAIモデルのインプット・アウトプット・ロバスト性のランタイムモニタリングを提案する。
そこで本研究では, 固定半径近傍の探索問題 (FRNN) として, 監視問題をキャストできることを示す。
いくつかの軽量モニタを提供するツールであるClemontを紹介します。
- 参考スコア(独自算出の注目度): 7.922558880545528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Input-output robustness appears in various different forms in the literature, such as robustness of AI models to adversarial or semantic perturbations and individual fairness of AI models that make decisions about humans. We propose runtime monitoring of input-output robustness of deployed, black-box AI models, where the goal is to design monitors that would observe one long execution sequence of the model, and would raise an alarm whenever it is detected that two similar inputs from the past led to dissimilar outputs. This way, monitoring will complement existing offline ``robustification'' approaches to increase the trustworthiness of AI decision-makers. We show that the monitoring problem can be cast as the fixed-radius nearest neighbor (FRNN) search problem, which, despite being well-studied, lacks suitable online solutions. We present our tool Clemont, which offers a number of lightweight monitors, some of which use upgraded online variants of existing FRNN algorithms, and one uses a novel algorithm based on binary decision diagrams -- a data-structure commonly used in software and hardware verification. We have also developed an efficient parallelization technique that can substantially cut down the computation time of monitors for which the distance between input-output pairs is measured using the $L_\infty$ norm. Using standard benchmarks from the literature of adversarial and semantic robustness and individual fairness, we perform a comparative study of different monitors in \tool, and demonstrate their effectiveness in correctly detecting robustness violations at runtime.
- Abstract(参考訳): インプット・アウトプット・ロバストネスは、敵対的あるいはセマンティックな摂動に対するAIモデルの堅牢性や、人間に関する決定を行うAIモデルの個人的公正性など、文学における様々な形態に現れている。
デプロイされたブラックボックスAIモデルのインプット・アウトプット・ロバスト性のランタイム監視を提案し,その目的は,モデルの長い実行シーケンスを1つ観察するモニタを設計することであり,過去の2つの類似した入力が異種出力に繋がったことを検知した場合にアラームを発生させることである。
これにより、監視は、AI意思決定者の信頼性を高めるために、既存のオフラインの‘robustification’アプローチを補完する。
モニタリング問題は、よく研究されているにも拘わらず、適切なオンラインソリューションが欠如している、固定半径近傍探索問題(FRNN)としてキャスト可能であることを示す。
当社では,多数の軽量モニタを提供するツールであるClemontを紹介します。既存のFRNNアルゴリズムのオンライン版をアップグレードしたものもあれば,バイナリ決定ダイアグラムに基づいた,新たなアルゴリズムも使用しています。
また、入出力ペア間の距離を$L_\infty$ノルムで測定するモニタの計算時間を大幅に削減できる効率的な並列化手法を開発した。
対戦型・セマンティックロバスト性および個人公正性の文献の標準ベンチマークを用いて,各モニタの比較を行い,実行時のロバストネス違反を正しく検出する上での有効性を実証する。
関連論文リスト
- Benchmarking Vision Foundation Models for Input Monitoring in Autonomous Driving [7.064497253920508]
特徴抽出器および密度モデリング技術としてのビジョンファウンデーションモデル(VFM)を提案する。
最先端のバイナリOOD分類法と比較すると、密度推定によるVFM埋め込みはOOD入力の同定において既存の手法よりも優れていることが分かる。
提案手法は,ダウンストリームタスクにおけるエラーの原因となる可能性のある高リスク入力を検出し,全体的な性能を向上させる。
論文 参考訳(メタデータ) (2025-01-14T12:51:34Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Monitizer: Automating Design and Evaluation of Neural Network Monitors [0.9236074230806581]
ニューラルネットワーク(NN)の、これまで目に見えないタイプのデータ(配布外またはOOD)に対する振舞いは、一般的に予測不可能である。
これは、ネットワークの出力が安全クリティカルなシステムにおける意思決定に使用される場合、危険になる可能性がある。
NNモニタのユーザと開発者向けのツールを提示する。
論文 参考訳(メタデータ) (2024-05-16T13:19:51Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Designing monitoring strategies for deployed machine learning
algorithms: navigating performativity through a causal lens [6.329470650220206]
この研究の目的は、監視戦略を設計する際の比較的過小評価されている複雑さを強調することである。
MLに基づく未計画の読み出し予測のためのリスク予測アルゴリズムについて検討する。
このケーススタディの結果は、すべての監視システムが平等に作成されるわけではないという、一見単純な(そして明らかな)事実を強調します。
論文 参考訳(メタデータ) (2023-11-20T00:15:16Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - IM-IAD: Industrial Image Anomaly Detection Benchmark in Manufacturing [88.35145788575348]
画像異常検出(英: Image Anomaly Detection、IAD)は、産業用コンピュータビジョンの課題である。
統一IMベンチマークの欠如は、現実世界のアプリケーションにおけるIADメソッドの開発と利用を妨げる。
7つの主要なデータセットに19のアルゴリズムを含む包括的画像異常検出ベンチマーク(IM-IAD)を構築した。
論文 参考訳(メタデータ) (2023-01-31T01:24:45Z) - A Bayesian Detect to Track System for Robust Visual Object Tracking and
Semi-Supervised Model Learning [1.7268829007643391]
ニューラルネットワークの出力によってパラメータ化されたベイズ追跡・検出フレームワークにおける副次的問題について述べる。
本稿では,粒子フィルタを用いた物体状態推定のための近似サンプリングアルゴリズムを提案する。
粒子フィルタ推論アルゴリズムを用いて,間欠的なラベル付きフレーム上でのトラッキングネットワークの学習に半教師付き学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2022-05-05T00:18:57Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。