論文の概要: Peter Parker or Spiderman? Disambiguating Multiple Class Labels
- arxiv url: http://arxiv.org/abs/2410.19479v1
- Date: Fri, 25 Oct 2024 11:16:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:37:42.677875
- Title: Peter Parker or Spiderman? Disambiguating Multiple Class Labels
- Title(参考訳): ピーター・パーカーかスパイダーマンか?
- Authors: Nuthan Mummani, Simran Ketha, Venkatakrishnan Ramaswamy,
- Abstract要約: ディープネットワークは通常、推論中に複数の予測を行う。
本稿では,現代のセグメンテーションと入力属性技術を活用したフレームワークと手法を提案する。
提案手法は,ImageNetバリデーションセットおよび複数のモデル上で,多数のサンプルに対して良好に動作することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In the supervised classification setting, during inference, deep networks typically make multiple predictions. For a pair of such predictions (that are in the top-k predictions), two distinct possibilities might occur. On the one hand, each of the two predictions might be primarily driven by two distinct sets of entities in the input. On the other hand, it is possible that there is a single entity or set of entities that is driving the prediction for both the classes in question. This latter case, in effect, corresponds to the network making two separate guesses about the identity of a single entity type. Clearly, both the guesses cannot be true, i.e. both the labels cannot be present in the input. Current techniques in interpretability research do not readily disambiguate these two cases, since they typically consider input attributions for one class label at a time. Here, we present a framework and method to do so, leveraging modern segmentation and input attribution techniques. Notably, our framework also provides a simple counterfactual "proof" of each case, which can be verified for the input on the model (i.e. without running the method again). We demonstrate that the method performs well for a number of samples from the ImageNet validation set and on multiple models.
- Abstract(参考訳): 教師付き分類設定では、推論の間、ディープネットワークは通常複数の予測を行う。
そのような予測(トップkの予測である)のペアに対して、2つの異なる可能性が発生する可能性がある。
一方、2つの予測はそれぞれ、主に入力内の2つの異なる実体によって駆動される。
一方、問題となっている両方のクラスの予測を駆動しているエンティティやエンティティの集合が1つ存在する可能性がある。
この後者のケースは、事実上、単一のエンティティタイプの同一性について2つの別々の推測を行うネットワークに対応している。
明らかに、どちらの推測も真ではない、すなわち、どちらのラベルも入力には存在しない。
解釈可能性研究の現在の技術は、通常は一度に1つのクラスラベルの入力属性を考えるため、これらの2つのケースをすぐには曖昧にしない。
本稿では,現代のセグメンテーションと入力属性技術を活用するためのフレームワークと手法を提案する。
特に、当社のフレームワークは、モデル上の入力(つまり、メソッドを再度実行せずに)に対して検証可能な、各ケースの単純な"防御"も提供しています。
提案手法は,ImageNetバリデーションセットおよび複数のモデル上で,多数のサンプルに対して良好に動作することを示す。
関連論文リスト
- Information Flow Routes: Automatically Interpreting Language Models at Scale [9.156549818722581]
情報は、モデルに実装されたメカニズムを介して、ネットワーク内のルートによって流れる。
私たちはこれらのグラフをトップダウンで構築し、各予測は最も重要なノードとエッジだけを残します。
いくつかのモデルコンポーネントは、コーディングや多言語テキストのようなドメインに特化できることを示す。
論文 参考訳(メタデータ) (2024-02-27T00:24:42Z) - Human-in-the-loop: Towards Label Embeddings for Measuring Classification Difficulty [14.452983136429967]
教師付き学習では、トレーニングプロセスの第1段階、つまりアノテーションフェーズにおいて、すでに不確実性が発生する可能性がある。
この研究の主な考え方は、基礎となる真理ラベルの仮定を捨て、代わりにアノテーションを多次元空間に埋め込むことである。
本稿では,複数のアノテータが独立してインスタンスをラベル付けする,様々な状況に展開する手法を提案する。
論文 参考訳(メタデータ) (2023-11-15T11:23:15Z) - Interval Type-2 Fuzzy Neural Networks for Multi-Label Classification [14.20513951604573]
間隔型2ファジィ論理に基づくマルチラベル分類モデルを提案する。
提案モデルでは、ディープニューラルネットワークを用いて、インスタンスのタイプ1ファジィメンバシップを予測する。
また,データセット内のバイナリラベルと,モデルが生成する間隔2型ファジィメンバシップの類似度を測定するための損失関数を提案する。
論文 参考訳(メタデータ) (2023-02-21T04:00:44Z) - Collective Robustness Certificates: Exploiting Interdependence in Graph
Neural Networks [71.78900818931847]
ノード分類、画像分割、名前付き一致認識といったタスクでは、複数の予測を同時に出力する分類器があります。
既存の対向ロバスト性証明は、それぞれの予測を独立に考慮し、従ってそのようなタスクに対して過度に悲観的である。
本稿では,摂動下で安定に保たれることが保証される予測数を計算した最初の集合ロバスト性証明を提案する。
論文 参考訳(メタデータ) (2023-02-06T14:46:51Z) - Domain-Generalizable Multiple-Domain Clustering [55.295300263404265]
本研究は、教師なし領域一般化の問題を、ラベル付きサンプルが存在しない場合(完全に教師なし)に一般化する。
我々は複数のソースドメインからラベルのないサンプルを付与し、サンプルを意味的に関連するクラスタに割り当てる共有予測器を学習することを目指している。
評価は、これまで見つからなかったドメインのクラスタ割り当てを予測することで行われる。
論文 参考訳(メタデータ) (2023-01-31T10:24:50Z) - Two-sample test based on Self-Organizing Maps [68.8204255655161]
機械学習分類器は2サンプル統計テストとして利用することができる。
自己組織化マップは、当初データ視覚化ツールとして考案された次元削減である。
しかし、本来の目的は視覚化であるため、洞察を与えることもできる。
論文 参考訳(メタデータ) (2022-12-17T21:35:47Z) - MultiGuard: Provably Robust Multi-label Classification against
Adversarial Examples [67.0982378001551]
MultiGuardは、マルチラベル分類に対する敵の例に対する証明可能な堅牢な防御である。
我々の主要な理論的貢献は、入力の基底真理ラベルの数が、MultiGuardによって予測されるラベルのセットで証明可能であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T17:50:57Z) - Multi-Label Few-Shot Learning for Aspect Category Detection [23.92900196246631]
感情分析におけるアスペクトカテゴリー検出(ACD)は、文中のアスペクトカテゴリを特定することを目的としている。
既存の数発の学習アプローチは、主にシングルラベルの予測に焦点を当てている。
本稿では,プロトタイプネットワークに基づく複数ラベルの複数ショット学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-29T01:56:11Z) - Text Classification with Novelty Detection [21.75306253494508]
本稿では,テキスト分類における新規な事例や予期せぬ事例を検出する問題について検討する。
従来のテキスト分類では、テストに現れるクラスはトレーニング中に見られたに違いない。
本稿では,元の問題をペアワイズマッチング問題に変換する,より効果的な手法を提案する。
論文 参考訳(メタデータ) (2020-09-23T12:54:34Z) - One-bit Supervision for Image Classification [121.87598671087494]
1ビットの監視は、不完全なアノテーションから学ぶための新しい設定である。
負ラベル抑圧を既成の半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-14T03:06:23Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。