論文の概要: Manipulating Predictions over Discrete Inputs in Machine Teaching
- arxiv url: http://arxiv.org/abs/2401.17865v1
- Date: Wed, 31 Jan 2024 14:23:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 14:30:06.006068
- Title: Manipulating Predictions over Discrete Inputs in Machine Teaching
- Title(参考訳): 機械教育における離散入力による予測操作
- Authors: Xiaodong Wu, Yufei Han, Hayssam Dahrouj, Jianbing Ni, Zhenwen Liang,
Xiangliang Zhang
- Abstract要約: 本稿では,個別領域における機械教育,特に教師の目標に基づいて学生モデルの予測を効率的に学習データを変更することに焦点を当てた。
本稿では,この課題を最適化問題として定式化し,反復探索アルゴリズムを提案する。
本アルゴリズムは,教師が生徒のモデルを改善するために誤予測を修正しようとする場合や,特定のサンプルを対象のクラスに不正に分類するために悪質な操作を行う場合において,有意義な数値的メリットを示す。
- 参考スコア(独自算出の注目度): 43.914943603238996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine teaching often involves the creation of an optimal (typically
minimal) dataset to help a model (referred to as the `student') achieve
specific goals given by a teacher. While abundant in the continuous domain, the
studies on the effectiveness of machine teaching in the discrete domain are
relatively limited. This paper focuses on machine teaching in the discrete
domain, specifically on manipulating student models' predictions based on the
goals of teachers via changing the training data efficiently. We formulate this
task as a combinatorial optimization problem and solve it by proposing an
iterative searching algorithm. Our algorithm demonstrates significant numerical
merit in the scenarios where a teacher attempts at correcting erroneous
predictions to improve the student's models, or maliciously manipulating the
model to misclassify some specific samples to the target class aligned with his
personal profits. Experimental results show that our proposed algorithm can
have superior performance in effectively and efficiently manipulating the
predictions of the model, surpassing conventional baselines.
- Abstract(参考訳): 機械教育はしばしば、モデル(「学生」と呼ばれる)が教師が与える特定の目標を達成するのを助けるために最適な(通常最小限の)データセットを作成する。
連続領域では豊富なが、離散領域における機械教育の有効性に関する研究は比較的限られている。
本稿では,個別領域における機械教育,特に学習データの効率的な変更による教師の目標に基づく生徒モデルの予測の操作に焦点をあてる。
この課題を組合せ最適化問題として定式化し,反復探索アルゴリズムを提案する。
本アルゴリズムは,教師が生徒のモデルを改善するために誤予測を修正しようとする場合や,特定のサンプルを対象のクラスに誤分類するために悪意ある操作を行う場合において,大きな数値的メリットを示す。
実験結果から,提案アルゴリズムは従来のベースラインを超越したモデル予測を効果的かつ効率的に操作できることがわかった。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Machine Unlearning for Causal Inference [0.6621714555125157]
モデルが与えられたユーザに関する情報(マシンアンラーニング)の学習/取得の一部を忘れることが重要である。
本稿では、因果推論のための機械学習の概念、特に確率スコアマッチングと治療効果推定について紹介する。
この研究で使用されるデータセットは、ジョブトレーニングプログラムの有効性を評価するために広く使用されているデータセットであるLalondeデータセットである。
論文 参考訳(メタデータ) (2023-08-24T17:27:01Z) - Assessing the Generalizability of a Performance Predictive Model [0.6070952062639761]
本稿では,アルゴリズム性能の予測モデルの一般化可能性を評価するワークフローを提案する。
その結果,ランドスケープの特徴空間における一般化可能性パターンが性能空間に反映されることが示唆された。
論文 参考訳(メタデータ) (2023-05-31T12:50:44Z) - Efficient Sub-structured Knowledge Distillation [52.5931565465661]
定式化においてよりシンプルで,既存のアプローチよりもはるかに効率的にトレーニングできるアプローチを提案する。
教師モデルから学生モデルへの知識の伝達は、出力空間全体ではなく、すべてのサブ構造上の予測を局所的に一致させることで行う。
論文 参考訳(メタデータ) (2022-03-09T15:56:49Z) - Graph-based Ensemble Machine Learning for Student Performance Prediction [0.7874708385247353]
本研究では,単一の機械学習手法の安定性を向上させるために,グラフベースのアンサンブル機械学習手法を提案する。
私たちのモデルは、予測精度が最大14.8%向上する従来の機械学習アルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2021-12-15T05:19:46Z) - Learning to Augment for Data-Scarce Domain BERT Knowledge Distillation [55.34995029082051]
本稿では,データスカース領域BERT知識蒸留のための拡張学習法を提案する。
提案手法が4つの異なるタスクにおける最先端のベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-01-20T13:07:39Z) - Model-Agnostic Explanations using Minimal Forcing Subsets [11.420687735660097]
そこで本研究では,モデル決定に欠かせない最小限のトレーニングサンプルを同定する,モデルに依存しない新しいアルゴリズムを提案する。
本アルゴリズムは,制約付き最適化問題を解くことにより,このような「欠かせない」サンプルの集合を反復的に同定する。
結果から,本アルゴリズムは局所モデルの振る舞いをよりよく理解する上で,効率的かつ容易に記述できるツールであることがわかった。
論文 参考訳(メタデータ) (2020-11-01T22:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。