論文の概要: Measuring Adversarial Datasets
- arxiv url: http://arxiv.org/abs/2311.03566v1
- Date: Mon, 6 Nov 2023 22:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 17:39:14.587297
- Title: Measuring Adversarial Datasets
- Title(参考訳): 敵対的データセットの測定
- Authors: Yuanchen Bai, Raoyi Huang, Vijay Viswanathan, Tzu-Sheng Kuo,
Tongshuang Wu
- Abstract要約: 研究者は、標準的なベンチマークデータセットでは明らかにできないモデル欠陥をキャプチャするために、さまざまな逆データセットをキュレートした。
これらの敵対的変換の意図的かつ意図しない結果を測定する方法はまだ存在しない。
NLPタスクのテキストインスタンスを記述した既存の定量化指標の体系的な調査を行った。
- 参考スコア(独自算出の注目度): 28.221635644616523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era of widespread public use of AI systems across various domains,
ensuring adversarial robustness has become increasingly vital to maintain
safety and prevent undesirable errors. Researchers have curated various
adversarial datasets (through perturbations) for capturing model deficiencies
that cannot be revealed in standard benchmark datasets. However, little is
known about how these adversarial examples differ from the original data
points, and there is still no methodology to measure the intended and
unintended consequences of those adversarial transformations. In this research,
we conducted a systematic survey of existing quantifiable metrics that describe
text instances in NLP tasks, among dimensions of difficulty, diversity, and
disagreement. We selected several current adversarial effect datasets and
compared the distributions between the original and their adversarial
counterparts. The results provide valuable insights into what makes these
datasets more challenging from a metrics perspective and whether they align
with underlying assumptions.
- Abstract(参考訳): さまざまなドメインでaiシステムが広く普及する中、安全を維持し、望ましくないエラーを防ぐために、敵対的堅牢性を確保することがますます重要になっている。
研究者は、標準ベンチマークデータセットでは明らかにできないモデルの欠陥をキャプチャするために、さまざまな逆データセット(摂動を通じて)をキュレートした。
しかし、これらの逆転例が元のデータポイントとどのように異なるかは分かっておらず、これらの逆転変換の意図的および意図しない結果を測定する方法論はいまだ存在しない。
本研究では,難易度,多様性,不一致の次元において,NLPタスクのテキストインスタンスを記述した既存の定量化指標を体系的に調査した。
我々は,現在の敵効果データセットを複数選択し,元の敵効果データセットと敵効果データセットの分布を比較した。
結果は、これらのデータセットがメトリクスの観点からより困難になる理由と、基礎となる前提に合致するかどうかについて、貴重な洞察を提供する。
関連論文リスト
- Evidential Deep Partial Multi-View Classification With Discount Fusion [24.139495744683128]
Evidential Deep partial Multi-View Classification (EDP-MVC) と呼ばれる新しいフレームワークを提案する。
欠落したビューに対処するためにK-means命令を使用し、マルチビューデータの完全なセットを作成します。
この暗示されたデータ内の潜在的な衝突や不確実性は、下流の推論の信頼性に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-08-23T14:50:49Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Fin-Fed-OD: Federated Outlier Detection on Financial Tabular Data [11.027356898413139]
実世界のシナリオにおける異常検出は、動的でしばしば未知の異常分布による課題を引き起こす。
本稿では、データの機密性を損なうことなく、個々の組織における異常検出を強化するという課題に対処する。
本稿では,表現学習とフェデレーション学習技術を利用して未知の異常の検出を改善する手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:22:04Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - A Systematic Study on Quantifying Bias in GAN-Augmented Data [0.0]
GAN(Generative Adversarial Network)は先頃,マシンラーニング実践者が使用するデータ拡張テクニックとして人気を博した。
彼らはいわゆるモード崩壊障害モードに苦しむことが示されており、既に歪んだデータセットのバイアスを悪化させる危険性がある。
この研究は、GAN拡張データのバイアスを定量化することのできる最先端メトリクスの評価に焦点を当てた体系的な取り組みである。
論文 参考訳(メタデータ) (2023-08-23T22:19:48Z) - Conditional Feature Importance for Mixed Data [1.6114012813668934]
ノックオフサンプリングを用いた条件付き予測インパクト(CPI)フレームワークを開発した。
提案するワークフローは,I型エラーを制御し,高い出力を達成し,他の条件FI測定結果と一致していることを示す。
本研究は,混合データに対して,統計的に適切な,専門的な手法を開発することの必要性を強調した。
論文 参考訳(メタデータ) (2022-10-06T16:52:38Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Not All Datasets Are Born Equal: On Heterogeneous Data and Adversarial
Examples [46.625818815798254]
我々は、異種データで訓練された機械学習モデルは、同種データで訓練された機械学習モデルと同じくらい敵の操作に影響を受けやすいと論じる。
不均一な入力空間における逆摂動を識別する汎用的な最適化フレームワークを提案する。
その結果、異種データセットの入力妥当性に制約が課されているにもかかわらず、そのようなデータを用いて訓練された機械学習モデルは相変わらず敵の例にも適用可能であることが示された。
論文 参考訳(メタデータ) (2020-10-07T05:24:23Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Learning Overlapping Representations for the Estimation of
Individualized Treatment Effects [97.42686600929211]
観測データから代替案の可能性を推定することは難しい問題である。
入力のドメイン不変表現を学習するアルゴリズムは、しばしば不適切であることを示す。
我々は,様々なベンチマークデータセットの最先端性を大幅に向上させる,ディープカーネル回帰アルゴリズムと後続正規化フレームワークを開発した。
論文 参考訳(メタデータ) (2020-01-14T12:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。