論文の概要: Reciprocity in Machine Learning
- arxiv url: http://arxiv.org/abs/2202.09480v1
- Date: Sat, 19 Feb 2022 00:25:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 07:54:50.848795
- Title: Reciprocity in Machine Learning
- Title(参考訳): 機械学習における相互性
- Authors: Mukund Sundararajan (Google), Walid Krichene (Google Research)
- Abstract要約: 機械学習はSpotify、Instagram、YouTubeなどのレコメンデーションシステムやヘルスケアシステムに活用される。
個人はこれらのモデルにデータを提供し、その恩恵を受ける。
これらの貢献(インフルエンスの流れ)と利益(インフルエンスの流れ)は相反するのでしょうか?
本稿では,従来提案されていたデータ影響のトレーニング尺度に基づいて,アウトフロー,インフロー,相互性構築の尺度を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is pervasive. It powers recommender systems such as Spotify,
Instagram and YouTube, and health-care systems via models that predict sleep
patterns, or the risk of disease. Individuals contribute data to these models
and benefit from them. Are these contributions (outflows of influence) and
benefits (inflows of influence) reciprocal? We propose measures of outflows,
inflows and reciprocity building on previously proposed measures of training
data influence. Our initial theoretical and empirical results indicate that
under certain distributional assumptions, some classes of models are
approximately reciprocal. We conclude with several open directions.
- Abstract(参考訳): 機械学習は普及している。
Spotify、Instagram、YouTubeなどのレコメンドシステムや、睡眠パターンや病気のリスクを予測するモデルを通じて医療システムを動かしている。
個人はこれらのモデルにデータを提供し、その恩恵を受ける。
これらの貢献(影響の流出)と利益(影響の流入)は相反するだろうか?
本稿では,前述した訓練データの影響の尺度に基づいて,流出量,流入量,相互関係の尺度を提案する。
我々の最初の理論および実験の結果は、ある分布的仮定の下で、モデルのいくつかのクラスは概逆的であることを示している。
我々はいくつかのオープンな方向で締めくくる。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - A Mathematical Model of the Hidden Feedback Loop Effect in Machine Learning Systems [44.99833362998488]
意図しない隠れフィードバックループに起因するいくつかの現象を共同で記述するために,繰り返し学習プロセスを導入する。
このような繰り返し学習設定の特徴は、環境の状態が時間とともに学習者自身に因果的に依存することである。
本稿では,繰り返し学習過程の力学系モデルを提案し,正および負のフィードバックループモードに対する確率分布の制限セットを証明した。
論文 参考訳(メタデータ) (2024-05-04T17:57:24Z) - Fairness Feedback Loops: Training on Synthetic Data Amplifies Bias [47.79659355705916]
モデル誘導分散シフト(MIDS)は、以前のモデルが代々のモデルに対して汚染された新しいモデルトレーニングセットを出力するときに発生する。
我々は,複数世代にわたるMIDSの追跡を可能にするフレームワークを導入し,性能,公平性,少数化グループ表現の損失につながることを確認した。
これらの否定的な結果にもかかわらず、モデルがデータエコシステムにおけるポジティブで意図的な介入にどのように使用されるかを特定します。
論文 参考訳(メタデータ) (2024-03-12T17:48:08Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Specify Robust Causal Representation from Mixed Observations [35.387451486213344]
観測から純粋に表現を学習することは、予測モデルに有利な低次元のコンパクトな表現を学習する問題を懸念する。
本研究では,観測データからこのような表現を学習するための学習手法を開発した。
理論的および実験的に、学習された因果表現で訓練されたモデルは、敵の攻撃や分布シフトの下でより堅牢であることを示す。
論文 参考訳(メタデータ) (2023-10-21T02:18:35Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - A Survey on Evidential Deep Learning For Single-Pass Uncertainty
Estimation [0.0]
情報深層学習(Evidential Deep Learning): 馴染みのないデータに対して、彼らは“知らないこと”を認め、以前の信念に戻る。
この調査は、Evidential Deep Learningという概念に基づいた、別のモデルのクラスを読者に親しみやすくすることを目的としている。
論文 参考訳(メタデータ) (2021-10-06T20:13:57Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - How Training Data Impacts Performance in Learning-based Control [67.7875109298865]
本稿では,トレーニングデータの密度と制御性能の関係を考察する。
データセットの品質尺度を定式化し、$rho$-gap と呼ぶ。
フィードバック線形化制御法に$rho$-gapを適用する方法を示す。
論文 参考訳(メタデータ) (2020-05-25T12:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。