論文の概要: Hidden Incentives for Auto-Induced Distributional Shift
- arxiv url: http://arxiv.org/abs/2009.09153v1
- Date: Sat, 19 Sep 2020 03:31:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 20:43:40.087464
- Title: Hidden Incentives for Auto-Induced Distributional Shift
- Title(参考訳): 自動分散シフトのための隠れインセンティブ
- Authors: David Krueger, Tegan Maharaj, Jan Leike
- Abstract要約: 本稿では,ADS(Auto-induced Distributional shift)という用語を導入し,アルゴリズムが自身の入力の分布に変化をもたらす現象について述べる。
私たちのゴールは、機械学習システムがADSを活用しないことを保証し、実行時にパフォーマンスを向上させることです。
メタ学習の導入などの学習アルゴリズムの変更は、自動誘導分布シフト(HI-ADS)に隠れたインセンティブをもたらす可能性があることを実証する。
- 参考スコア(独自算出の注目度): 11.295927026302573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decisions made by machine learning systems have increasing influence on the
world, yet it is common for machine learning algorithms to assume that no such
influence exists. An example is the use of the i.i.d. assumption in content
recommendation. In fact, the (choice of) content displayed can change users'
perceptions and preferences, or even drive them away, causing a shift in the
distribution of users. We introduce the term auto-induced distributional shift
(ADS) to describe the phenomenon of an algorithm causing a change in the
distribution of its own inputs. Our goal is to ensure that machine learning
systems do not leverage ADS to increase performance when doing so could be
undesirable. We demonstrate that changes to the learning algorithm, such as the
introduction of meta-learning, can cause hidden incentives for auto-induced
distributional shift (HI-ADS) to be revealed. To address this issue, we
introduce `unit tests' and a mitigation strategy for HI-ADS, as well as a toy
environment for modelling real-world issues with HI-ADS in content
recommendation, where we demonstrate that strong meta-learners achieve gains in
performance via ADS. We show meta-learning and Q-learning both sometimes fail
unit tests, but pass when using our mitigation strategy.
- Abstract(参考訳): 機械学習システムによる決定は世界への影響を増大させているが、機械学習アルゴリズムではそのような影響は存在しないと仮定することが一般的である。
例として、コンテンツレコメンデーションにおけるi.d.仮定の使用がある。
実際、表示された(選択された)コンテンツは、ユーザの認識や好みを変えたり、あるいはそれらを追い払うことさえでき、ユーザの分布が変化します。
本稿では,ADS(Auto-induced Distributional shift)という用語を導入し,アルゴリズムが自身の入力の分布に変化をもたらす現象について述べる。
私たちのゴールは、機械学習システムがADSを活用しないことを保証し、実行時にパフォーマンスを向上させることです。
メタ学習の導入などの学習アルゴリズムの変更は、自動誘導分布シフト(HI-ADS)に隠れたインセンティブをもたらす可能性があることを実証する。
この問題に対処するため,コンテンツレコメンデーションにおけるHI-ADSの「ユニットテスト」とHI-ADSの緩和戦略,およびHI-ADSによる実世界の課題をモデル化するための玩具環境を紹介する。
メタラーニングとqラーニングの両方がユニットテストに失敗することがあるが、緩和戦略を使用するとパスする。
関連論文リスト
- OpenNet: Incremental Learning for Autonomous Driving Object Detection
with Balanced Loss [3.761247766448379]
提案手法は既存手法よりも優れた性能が得られる。
CODAデータセットを用いた実験結果から,提案手法は既存手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-11-25T06:02:50Z) - Making Users Indistinguishable: Attribute-wise Unlearning in Recommender
Systems [28.566330708233824]
攻撃者は、訓練中に明示的に遭遇していない場合でも、訓練されたモデルから個人情報、すなわち性別、人種、年齢を抽出することができる。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning (AU)は攻撃性能を低下させ、ターゲット属性を識別不能にする。
論文 参考訳(メタデータ) (2023-10-06T09:36:44Z) - Augmentation-aware Self-supervised Learning with Conditioned Projector [6.720605329045581]
自己教師付き学習(SSL)は、ラベルのないデータから学習するための強力な技術である。
本稿では,プロジェクタネットワークを改良し,表現空間の特徴に対する感受性を高めることを提案する。
提案手法は条件拡張型自己教師学習(CASSLE)と呼ばれ,通常の共同埋め込み型SSL手法に直接適用可能である。
論文 参考訳(メタデータ) (2023-05-31T12:24:06Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Generative Adversarial Reward Learning for Generalized Behavior Tendency
Inference [71.11416263370823]
ユーザの行動嗜好モデルのための生成的逆強化学習を提案する。
我々のモデルは,差別的アクター批判ネットワークとWasserstein GANに基づいて,ユーザの行動から報酬を自動的に学習することができる。
論文 参考訳(メタデータ) (2021-05-03T13:14:25Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z) - PsiPhi-Learning: Reinforcement Learning with Demonstrations using
Successor Features and Inverse Temporal Difference Learning [102.36450942613091]
時間差学習(ITD)と呼ばれる逆強化学習アルゴリズムを提案する。
Psi Phi$-learningと呼ばれるデモで強化学習のための新しいアルゴリズムに到達し、オンライン環境の相互作用から学習とITDをシームレスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-02-24T21:12:09Z) - Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training [55.824641135682725]
WSJ をソースドメインとし,TED-Lium 3 とSWITCHBOARD を併用したドメイン適応実験を行った。
論文 参考訳(メタデータ) (2020-11-26T18:51:26Z) - Hyperparameter Auto-tuning in Self-Supervised Robotic Learning [12.193817049957733]
不十分な学習(局所最適収束による)は、冗長な学習が時間と資源を浪費する一方で、低パフォーマンスの政策をもたらす。
自己教師付き強化学習のためのエビデンス下界(ELBO)に基づく自動チューニング手法を提案する。
本手法は,オンラインで自動チューニングが可能であり,計算資源のごく一部で最高の性能が得られる。
論文 参考訳(メタデータ) (2020-10-16T08:58:24Z) - Adversarial Machine Learning in Network Intrusion Detection Systems [6.18778092044887]
ネットワーク侵入検知システムにおける逆問題の性質について検討する。
進化的計算(粒子群最適化と遺伝的アルゴリズム)と深層学習(生成的敵ネットワーク)を、敵対的サンプル生成のためのツールとして利用する。
我々の研究は、敵の摂動に直面した機械学習ベースのNIDSの脆弱性を強調している。
論文 参考訳(メタデータ) (2020-04-23T19:47:43Z) - Guided Variational Autoencoder for Disentanglement Learning [79.02010588207416]
本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
論文 参考訳(メタデータ) (2020-04-02T20:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。