論文の概要: Robust Learning from Discriminative Feature Feedback
- arxiv url: http://arxiv.org/abs/2003.03946v1
- Date: Mon, 9 Mar 2020 06:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 07:57:29.591102
- Title: Robust Learning from Discriminative Feature Feedback
- Title(参考訳): 識別的特徴フィードバックによるロバスト学習
- Authors: Sanjoy Dasgupta and Sivan Sabato
- Abstract要約: より現実的で堅牢なバージョンのフレームワークを紹介します。
このような誤りを,逆向きとアリミ設定の両方でアルゴリズム的に処理する方法を示す。
- 参考スコア(独自算出の注目度): 32.18449686637963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work introduced the model of learning from discriminative feature
feedback, in which a human annotator not only provides labels of instances, but
also identifies discriminative features that highlight important differences
between pairs of instances. It was shown that such feedback can be conducive to
learning, and makes it possible to efficiently learn some concept classes that
would otherwise be intractable. However, these results all relied upon perfect
annotator feedback. In this paper, we introduce a more realistic, robust
version of the framework, in which the annotator is allowed to make mistakes.
We show how such errors can be handled algorithmically, in both an adversarial
and a stochastic setting. In particular, we derive regret bounds in both
settings that, as in the case of a perfect annotator, are independent of the
number of features. We show that this result cannot be obtained by a naive
reduction from the robust setting to the non-robust setting.
- Abstract(参考訳): 近年の研究では、人間のアノテーションがインスタンスのラベルを提供するだけでなく、インスタンスのペア間の重要な違いを強調する識別的特徴を識別する、識別的特徴フィードバックからの学習モデルが導入されている。
このようなフィードバックは学習に寄与する可能性があり,それ以外は難解な概念クラスを効率的に学習できることが示されている。
しかし、これらの結果は完全なアノテータのフィードバックに頼っていた。
本稿では,アノテータが誤りを犯すことのできる,より現実的で堅牢なフレームワークについて紹介する。
このようなエラーをアルゴリズム的に処理する方法を,敵意と確率的設定の両方において示す。
特に、完全アノテータの場合のように、機能の数に依存しない、両方の設定における後悔の限界を導出します。
この結果は,ロバストな設定から非ロバストな設定へのナイーブな還元によっては得られないことを示す。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - ACTOR: Active Learning with Annotator-specific Classification Heads to
Embrace Human Label Variation [35.10805667891489]
積極的学習は、アノテーションのコスト削減戦略として、不一致から学ぶという文脈で完全には研究されていない。
アクティブな学習環境では、不確実性推定の観点から、マルチヘッドモデルの方がシングルヘッドモデルよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-10-23T14:26:43Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Counterfactual Reasoning for Bias Evaluation and Detection in a Fairness
under Unawareness setting [6.004889078682389]
現在のAI規制では、不公平な結果を防ぐために、アルゴリズムの意思決定プロセスで機密機能を破棄する必要がある。
本稿では、機密機能が破棄された場合でも継続可能な機械学習モデルの潜在的な隠れバイアスを明らかにする方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T10:36:18Z) - Improved Robust Algorithms for Learning with Discriminative Feature
Feedback [21.58493386054356]
識別的特徴フィードバック(英: Discriminative Feature Feedback)は、人間の教師によって提供される特徴説明に基づく対話型学習のためのプロトコルである。
我々は、識別的特徴フィードバックモデルのための、新しい堅牢な対話型学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-09-08T12:11:12Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Disjoint Contrastive Regression Learning for Multi-Sourced Annotations [10.159313152511919]
大規模データセットはディープラーニングモデルの開発に重要である。
複数のアノテータを使用して、データの異なるサブセットをラベル付けすることができる。
異なるアノテータ間の矛盾とバイアスはモデルトレーニングに有害である。
論文 参考訳(メタデータ) (2021-12-31T12:39:04Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Inverse Feature Learning: Feature learning based on Representation
Learning of Error [12.777440204911022]
本稿では,新しい教師付き特徴学習手法としての逆特徴学習を提案し,誤り表現アプローチに基づく分類のための高レベル特徴セットを学習する。
提案手法は,いくつかの一般的なデータセットに対する最先端の分類手法と比較して,性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-08T00:22:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。