論文の概要: White Paper Assistance: A Step Forward Beyond the Shortcut Learning
- arxiv url: http://arxiv.org/abs/2106.04178v1
- Date: Tue, 8 Jun 2021 08:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 15:54:44.645681
- Title: White Paper Assistance: A Step Forward Beyond the Shortcut Learning
- Title(参考訳): ホワイトペーパーの支援: ショートカット学習を超えて前進する
- Authors: Xuan Cheng, Tianshu Xie, Xiaomin Wang, Jiali Deng, Minghui Liu, Ming
Liu
- Abstract要約: 我々は、CNNが実際に私たちが関心を持っているようにしているかどうかを調べる必要性をしばしば見落としていることを示します。
我々は、この意図しない不確実性に対抗するために、白紙援助と呼ばれる新しいアプローチを提案する。
提案手法は, モデルが特定の特徴パターンを優先する程度を検知し, 白紙上でランダムな推測を強制的に行うことによって緩和する。
- 参考スコア(独自算出の注目度): 6.066543113636522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The promising performances of CNNs often overshadow the need to examine
whether they are doing in the way we are actually interested. We show through
experiments that even over-parameterized models would still solve a dataset by
recklessly leveraging spurious correlations, or so-called 'shortcuts'. To
combat with this unintended propensity, we borrow the idea of printer test page
and propose a novel approach called White Paper Assistance. Our proposed method
involves the white paper to detect the extent to which the model has preference
for certain characterized patterns and alleviates it by forcing the model to
make a random guess on the white paper. We show the consistent accuracy
improvements that are manifest in various architectures, datasets and
combinations with other techniques. Experiments have also demonstrated the
versatility of our approach on fine-grained recognition, imbalanced
classification and robustness to corruptions.
- Abstract(参考訳): CNNの有望なパフォーマンスは、実際に私たちが関心を持っている方法で行っているかどうかを調べる必要性を覆すことが多い。
過度にパラメータ化されたモデルであっても、スプリアス相関(いわゆる「ショートカット」)を無謀に活用してデータセットを解決できることを実験を通して示します。
この意図しない不確実性に対処するために,プリンタテストページのアイデアを借用し,ホワイトペーパーアシストと呼ばれる新しいアプローチを提案する。
提案手法では, モデルが特定の特徴的パターンを好む程度をホワイトペーパーに検出し, モデルにランダムな推測を強制することにより, モデルを緩和する。
様々なアーキテクチャ、データセット、他の技術との組合せに現れる一貫性のある精度改善を示す。
また, きめ細かな認識, 不均衡な分類, 腐敗に対するロバスト性に対するアプローチの汎用性についても実証した。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Label-Descriptive Patterns and their Application to Characterizing
Classification Errors [31.272875287136426]
最先端のディープラーニング手法は多くのタスクで人間のようなパフォーマンスを達成するが、それでもエラーを犯す。
これらのエラーを容易に解釈可能な言葉で特徴付けることは、モデルが体系的なエラーを起こす傾向にあるかどうかの洞察を与えるだけでなく、モデルを実行し改善する方法を与える。
本稿では,予測の正しさに応じて分割された入力データを簡潔に記述するパターンの小さなセットをマイニングすることにより,任意の分類器に対して,任意の分類を行うことができる手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T19:42:21Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Integrating Pattern- and Fact-based Fake News Detection via Model
Preference Learning [6.92027612631023]
パターンベースモデルとファクトベースモデルを一つのフレームワークに統合する問題について検討する。
提案するPreference-aware Fake News Detection Framework (Pref-FEND) は,共同検出のためのパターンモデルとファクトベースモデルの各好みを学習する。
論文 参考訳(メタデータ) (2021-09-23T12:28:55Z) - An Unsupervised Sampling Approach for Image-Sentence Matching Using
Document-Level Structural Information [64.66785523187845]
教師なし画像文マッチングの問題に焦点をあてる。
既存の研究では、文書レベルの構造情報を用いて、モデルトレーニングの正および負のインスタンスをサンプリングする方法が検討されている。
そこで本研究では,追加の文書内画像-文対を正あるいは負のサンプルとして選択する新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T05:43:29Z) - Debiasing Pre-trained Contextualised Embeddings [28.378270372391498]
本稿では,事前学習された文脈的埋め込みに対してトークンレベルや文レベルで適用可能な微調整手法を提案する。
性別バイアスを図示例として,複数の最新(SoTA)文脈表現を用いた体系的研究を行った。
すべてのトークンとコンテキスト化された埋め込みモデルのすべてのレイヤにトークンレベルのデバイアスを適用すると、最高のパフォーマンスが得られます。
論文 参考訳(メタデータ) (2021-01-23T15:28:48Z) - TextDecepter: Hard Label Black Box Attack on Text Classifiers [0.0]
自然言語処理(NLP)分類器に対するハードラベルブラックボックス攻撃に対する新しいアプローチを提案する。
このような攻撃シナリオは、感情分析や有害なコンテンツ検出といったセキュリティに敏感なアプリケーションに使われている現実世界のブラックボックスモデルにも適用される。
論文 参考訳(メタデータ) (2020-08-16T08:57:01Z) - G2MF-WA: Geometric Multi-Model Fitting with Weakly Annotated Data [15.499276649167975]
弱いアノテーションでは、ほとんどの手動アノテーションは正しくなければならないが、必然的に間違ったアノテーションと混同されている。
本稿では,WAデータを完全に活用してマルチモデル適合性能を向上させる手法を提案する。
論文 参考訳(メタデータ) (2020-01-20T04:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。