論文の概要: Learning to Ignore: Fair and Task Independent Representations
- arxiv url: http://arxiv.org/abs/2101.04047v2
- Date: Thu, 21 Jan 2021 09:01:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 17:06:30.950201
- Title: Learning to Ignore: Fair and Task Independent Representations
- Title(参考訳): Ignoreを学ぶ: 公平でタスクに依存しない表現
- Authors: Linda H. Boedi and Helmut Grabner
- Abstract要約: 本研究では,不変表現を学習するための共通フレームワークとして捉えることができることを示す。
表現は、データセットをサブグループに分割する敏感な属性に不変であると同時に、ターゲットを予測できるようにするべきです。
提案手法は,どの学習アルゴリズムでも,同じ特徴表現を持つ場合,サンプルを区別することは不可能である,という単純な観察に基づいている。
- 参考スコア(独自算出の注目度): 0.7106986689736827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training fair machine learning models, aiming for their interpretability and
solving the problem of domain shift has gained a lot of interest in the last
years. There is a vast amount of work addressing these topics, mostly in
separation. In this work we show that they can be seen as a common framework of
learning invariant representations. The representations should allow to predict
the target while at the same time being invariant to sensitive attributes which
split the dataset into subgroups. Our approach is based on the simple
observation that it is impossible for any learning algorithm to differentiate
samples if they have the same feature representation. This is formulated as an
additional loss (regularizer) enforcing a common feature representation across
subgroups. We apply it to learn fair models and interpret the influence of the
sensitive attribute. Furthermore it can be used for domain adaptation,
transferring knowledge and learning effectively from very few examples. In all
applications it is essential not only to learn to predict the target, but also
to learn what to ignore.
- Abstract(参考訳): ドメインシフトの問題の解釈可能性と解決を目的とした、公正な機械学習モデルのトレーニングは、ここ数年で大きな関心を集めている。
これらのトピックには多くの作業があり、その大部分は分離にあります。
本研究では,不変表現を学習するための共通フレームワークとして捉えることができることを示す。
表現は、データセットをサブグループに分割するセンシティブな属性に不変であると同時に、ターゲットを予測することを可能にします。
提案手法は,任意の学習アルゴリズムが同じ特徴表現を持つ場合,サンプルを識別することは不可能である,という単純な観察に基づいている。
これはサブグループ間で共通の特徴表現を強制する追加の損失(レギュラライザー)として定式化されている。
公平なモデルを学び、センシティブな属性の影響を解釈するために適用する。
さらに、ごく少数の例からドメイン適応、知識の伝達、学習に効果的に使用できる。
すべてのアプリケーションにおいて、ターゲットを予測することを学ぶだけでなく、何を無視するかを学ぶことが不可欠です。
関連論文リスト
- IMO: Greedy Layer-Wise Sparse Representation Learning for Out-of-Distribution Text Classification with Pre-trained Models [56.10157988449818]
本研究は,モデルが1つのソースドメイン上でトレーニングされ,トレーニング中に見つからない複数のターゲットドメイン上でテストされる領域一般化の特定の問題に焦点を当てる。
Invariant features Masks for Out-of-Distribution text classification, to achieve OOD generalization by learning invariant features。
論文 参考訳(メタデータ) (2024-04-21T02:15:59Z) - Distributional Shift Adaptation using Domain-Specific Features [41.91388601229745]
オープンワールドのシナリオでは、ビッグデータのストリーミングはOut-Of-Distribution(OOD)になる。
特徴が不変か否かにかかわらず、一般の相関に依拠する単純かつ効果的な手法を提案する。
提案手法では,OODベースモデルによって同定された最も確実なサンプルを用いて,対象領域に効果的に適応する新しいモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-09T04:16:21Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - What Should Not Be Contrastive in Contrastive Learning [110.14159883496859]
本稿では,タスク依存不変性に関する事前知識を必要としない,対照的な学習フレームワークを提案する。
我々のモデルは、異なる埋め込み空間を構築することで、視覚表現の様々な要因や不変要素を捉えることを学習する。
我々は、共有バックボーンを持つマルチヘッドネットワークを使用し、各オーグメンテーションにまたがる情報をキャプチャし、ダウンストリームタスクにおけるすべてのベースラインより優れている。
論文 参考訳(メタデータ) (2020-08-13T03:02:32Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。