論文の概要: List Learning with Attribute Noise
- arxiv url: http://arxiv.org/abs/2006.06850v1
- Date: Thu, 11 Jun 2020 21:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 13:23:47.033466
- Title: List Learning with Attribute Noise
- Title(参考訳): 属性ノイズを用いたリスト学習
- Authors: Mahdi Cheraghchi, Elena Grigorescu, Brendan Juba, Karl Wimmer, and
Ning Xie
- Abstract要約: 属性雑音を用いたリスト学習モデルを導入・研究する。
そこで本研究では,下層構造分布の仮定に基づいて,疎結合を効率的にリストアップできることを示す。
その結果, リスト学習モデルにおいても, 使われる表現によらず, パリティとマイノリティーの効率的な学習は不可能であることが示唆された。
- 参考スコア(独自算出の注目度): 33.34034142549338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce and study the model of list learning with attribute noise.
Learning with attribute noise was introduced by Shackelford and Volper (COLT
1988) as a variant of PAC learning, in which the algorithm has access to noisy
examples and uncorrupted labels, and the goal is to recover an accurate
hypothesis. Sloan (COLT 1988) and Goldman and Sloan (Algorithmica 1995)
discovered information-theoretic limits to learning in this model, which have
impeded further progress. In this article we extend the model to that of list
learning, drawing inspiration from the list-decoding model in coding theory,
and its recent variant studied in the context of learning. On the positive
side, we show that sparse conjunctions can be efficiently list learned under
some assumptions on the underlying ground-truth distribution. On the negative
side, our results show that even in the list-learning model, efficient learning
of parities and majorities is not possible regardless of the representation
used.
- Abstract(参考訳): 属性雑音を伴うリスト学習のモデルを紹介し,検討する。
属性ノイズによる学習は、Shackelford and Volper (COLT 1988) によってPAC学習の変種として導入され、そこではアルゴリズムがノイズのあるサンプルや未破損ラベルにアクセスでき、その目標は正確な仮説を復元することである。
Sloan (COLT 1988)とGoldman and Sloan (Algorithmica 1995)は、このモデルにおける学習に対する情報理論の限界を発見し、さらなる進歩を阻害した。
本稿では、このモデルをリスト学習に拡張し、コーディング理論におけるリスト復号モデルからインスピレーションを得て、学習の文脈で研究した最近の変種について述べる。
正の面では、スパース結合は基礎となる接地分布の仮定の下で効率的に学習されることを示す。
否定的な側面として, リスト学習モデルにおいても, 表現によらず, パリティとメジャーの効率的な学習は不可能であることを示す。
関連論文リスト
- MUSE: Machine Unlearning Six-Way Evaluation for Language Models [109.76505405962783]
言語モデル(LM)は、プライベートおよび著作権のあるコンテンツを含む大量のテキストデータに基づいて訓練される。
総合的な機械学習評価ベンチマークであるMUSEを提案する。
人気のある8つのアンラーニングアルゴリズムがハリー・ポッターの本やニュース記事をいかに効果的に解き放つかをベンチマークする。
論文 参考訳(メタデータ) (2024-07-08T23:47:29Z) - LLMs can learn self-restraint through iterative self-reflection [57.26854891567574]
大規模言語モデル(LLM)は、特定のトピックに関連する知識と不確実性に基づいて、その振る舞いを動的に適応できなければならない。
この適応的行動は、私たちが自己規制と呼ぶもので、教えるのは簡単ではない。
モデルが信頼している場合にのみ応答を生成できるようにするユーティリティ関数を考案する。
論文 参考訳(メタデータ) (2024-05-15T13:35:43Z) - Action Model Learning with Guarantees [5.524804393257921]
本研究では,学習例と整合した仮説の探索としてタスクを解釈するバージョン空間に基づく行動モデル学習の理論を開発する。
我々の理論的発見は、問題のすべての解のコンパクトな表現を維持するオンラインアルゴリズムでインスタンス化される。
論文 参考訳(メタデータ) (2024-04-15T10:01:43Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Continual Learning in Open-vocabulary Classification with Complementary Memory Systems [19.337633598158778]
オープン語彙画像分類におけるフレキシブルで効率的な連続学習法を提案する。
サンプルのクラスが模範クラス内にあるというゼロショット推定確率を用いて、CLIPゼロショットモデルと模範モデルからの予測を組み合わせる。
また,遅延学習の原則を適応した"ツリープローブ"手法を提案し,競合精度の高い新しい例からバッチ学習線形モデルへの高速学習を実現する。
論文 参考訳(メタデータ) (2023-07-04T01:47:34Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Neural Active Learning on Heteroskedastic Distributions [29.01776999862397]
ヘテロスケダスティックデータセット上でのアクティブ学習アルゴリズムの破滅的な失敗を実証する。
本稿では,各データポイントにモデル差分スコアリング関数を組み込んで,ノイズの多いサンプルとサンプルクリーンなサンプルをフィルタするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-02T07:30:19Z) - Improved Robust Algorithms for Learning with Discriminative Feature
Feedback [21.58493386054356]
識別的特徴フィードバック(英: Discriminative Feature Feedback)は、人間の教師によって提供される特徴説明に基づく対話型学習のためのプロトコルである。
我々は、識別的特徴フィードバックモデルのための、新しい堅牢な対話型学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-09-08T12:11:12Z) - Active-LATHE: An Active Learning Algorithm for Boosting the Error
Exponent for Learning Homogeneous Ising Trees [75.93186954061943]
我々は、$rho$が少なくとも0.8$である場合に、エラー指数を少なくとも40%向上させるアルゴリズムを設計し、分析する。
我々の分析は、グラフの一部により多くのデータを割り当てるために、微小だが検出可能なサンプルの統計的変動を巧みに活用することに基づいている。
論文 参考訳(メタデータ) (2021-10-27T10:45:21Z) - ALEX: Active Learning based Enhancement of a Model's Explainability [34.26945469627691]
アクティブラーニング(AL)アルゴリズムは、最小限のラベル付き例をブートストラップ方式で効率的な分類器を構築しようとする。
データ駆動学習の時代において、これは追求すべき重要な研究方向である。
本稿では,モデルの有効性に加えて,ブートストラップ段階におけるモデルの解釈可能性の向上も目指すAL選択関数の開発に向けた取り組みについて述べる。
論文 参考訳(メタデータ) (2020-09-02T07:15:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。