論文の概要: Don't Judge Me by My Face : An Indirect Adversarial Approach to Remove
Sensitive Information From Multimodal Neural Representation in Asynchronous
Job Video Interviews
- arxiv url: http://arxiv.org/abs/2110.09424v1
- Date: Mon, 18 Oct 2021 15:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 13:28:08.265895
- Title: Don't Judge Me by My Face : An Indirect Adversarial Approach to Remove
Sensitive Information From Multimodal Neural Representation in Asynchronous
Job Video Interviews
- Title(参考訳): 私の顔で私を判断しない : 非同期求人ビデオインタビューにおけるマルチモーダルニューラル表現からの感性情報除去のための間接的敵対的アプローチ
- Authors: L\'eo Hemamou, Arthur Guillon, Jean-Claude Martin and Chlo\'e Clavel
- Abstract要約: 本稿では,ニューラルネットワークの潜伏表現からセンシティブな情報を除去するための新たな敵対的アプローチを提案する。
面接のほんの数フレームだけを用いて、面接に関連する候補者の顔を見つけられないようモデルを訓練する。
これは、ビデオジョブインタビューの文脈において、マルチモーダルな公正表現を得るための敵対的手法の最初の応用である。
- 参考スコア(独自算出の注目度): 1.1527421282223946
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: se of machine learning for automatic analysis of job interview videos has
recently seen increased interest. Despite claims of fair output regarding
sensitive information such as gender or ethnicity of the candidates, the
current approaches rarely provide proof of unbiased decision-making, or that
sensitive information is not used. Recently, adversarial methods have been
proved to effectively remove sensitive information from the latent
representation of neural networks. However, these methods rely on the use of
explicitly labeled protected variables (e.g. gender), which cannot be collected
in the context of recruiting in some countries (e.g. France). In this article,
we propose a new adversarial approach to remove sensitive information from the
latent representation of neural networks without the need to collect any
sensitive variable. Using only a few frames of the interview, we train our
model to not be able to find the face of the candidate related to the job
interview in the inner layers of the model. This, in turn, allows us to remove
relevant private information from these layers. Comparing our approach to a
standard baseline on a public dataset with gender and ethnicity annotations, we
show that it effectively removes sensitive information from the main network.
Moreover, to the best of our knowledge, this is the first application of
adversarial techniques for obtaining a multimodal fair representation in the
context of video job interviews. In summary, our contributions aim at improving
fairness of the upcoming automatic systems processing videos of job interviews
for equality in job selection.
- Abstract(参考訳): se of machine learning for automatic analysis of job interview videoは最近、関心が高まっている。
候補者の性別や民族性などのセンシティブな情報に関する公正なアウトプットの主張にもかかわらず、現在のアプローチでは、偏見のない意思決定の証拠となることはめったにない。
近年,ニューラルネットワークの潜在表現からセンシティブな情報を効果的に除去する方法が実証されている。
しかし、これらの方法は明確にラベル付けされた保護された変数(例えば、性別)の使用に依存しており、一部の国(例えばフランス)でのリクルートの文脈では収集できない。
本稿では,ニューラルネットワークの潜伏表現からセンシティブな情報を取り除き,センシティブな変数を収集する必要がない新しい敵対的手法を提案する。
インタビューのほんの数フレームだけを使用して、モデルの内層における求人面接に関連する候補者の顔を見つけることができないようにモデルを訓練する。
これにより、これらのレイヤから関連するプライベートな情報を削除できます。
公開データセットの標準ベースラインに対する我々のアプローチと、性別や民族のアノテーションを比較し、本ネットワークからセンシティブな情報を効果的に除去することを示した。
さらに,本手法は,ビデオジョブ面接の文脈において,マルチモーダルフェア表現を得るための敵手法を初めて応用した手法である。
要旨は,求職者の対等性を考慮した面接ビデオの自動処理方式の公平性の向上をめざしたものである。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Sensitive Information Detection: Recursive Neural Networks for Encoding
Context [0.20305676256390928]
機密情報の漏洩は非常にコストがかかる可能性がある。
感度情報を検出するための簡易で脆いルールセットは、実際の感度情報のごく一部しか見つからないことを示す。
我々は,ラベル付き事例へのアクセスのみを前提とした,機密情報検出手法の新たなファミリーを開発する。
論文 参考訳(メタデータ) (2020-08-25T07:49:46Z) - Grading video interviews with fairness considerations [1.7403133838762446]
本稿では,質問に対するビデオ応答に基づいて,候補者の社会的スキルを自動的に導き出す手法を提案する。
社会的スキルを予測するための2つの機械学習モデルを開発した。
我々は、人種と性別によるモデルの誤りを研究することによって、公正さを分析する。
論文 参考訳(メタデータ) (2020-07-02T10:06:13Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。