論文の概要: Transparent Model of Unabridged Data (TMUD)
- arxiv url: http://arxiv.org/abs/2106.07558v1
- Date: Sun, 23 May 2021 04:04:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 16:04:13.391497
- Title: Transparent Model of Unabridged Data (TMUD)
- Title(参考訳): ウナブリッジデータ(TMUD)の透明モデル
- Authors: Jie Xu and Min Ding
- Abstract要約: トランスペアレント・モデル・オブ・ウナブリッジド・データ(TMUD)は、研究者がそのようなブラックボックス・モデルの内部動作を調べることを可能にする。
顔の知覚における顔成分と性差の役割を調査することにより,TMUDを実証的に実証した。
- 参考スコア(独自算出の注目度): 9.181549947264768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in computational power and algorithms have enabled
unabridged data (e.g., raw images or audio) to be used as input in some models
(e.g., deep learning). However, the black box nature of such models reduces
their likelihood of adoption by marketing scholars. Our paradigm of analysis,
the Transparent Model of Unabridged Data (TMUD), enables researchers to
investigate the inner workings of such black box models by incorporating an ex
ante filtration module and an ex post experimentation module. We empirically
demonstrate the TMUD by investigating the role of facial components and sexual
dimorphism in face perceptions, which have implications for four marketing
contexts: advertisement (perceptions of approachability, trustworthiness, and
competence), brand (perceptions of whether a face represents a brand's typical
customer), category (perceptions of whether a face represents a category's
typical customer), and customer persona (perceptions of whether a face
represents the persona of a brand's customer segment). Our results reveal new
and useful findings that enrich the existing literature on face perception,
most of which is based on abridged attributes (e.g., width of mouth). The TMUD
has great potential to be a useful paradigm for generating theoretical insights
and may encourage more marketing researchers and practitioners to use
unabridged data.
- Abstract(参考訳): 近年の計算能力とアルゴリズムの進歩により、いくつかのモデル(ディープラーニングなど)の入力として非ブリッジデータ(生画像やオーディオなど)が使用できるようになった。
しかし、こうしたモデルのブラックボックスの性質は、マーケティング学者が採用する可能性を減らす。
我々の分析パラダイムであるtmud(transparent model of unabridged data)は,ex ante filtration moduleとex post experimentation moduleを組み合わせることで,ブラックボックスモデルの内部動作を調べることができる。
We empirically demonstrate the TMUD by investigating the role of facial components and sexual dimorphism in face perceptions, which have implications for four marketing contexts: advertisement (perceptions of approachability, trustworthiness, and competence), brand (perceptions of whether a face represents a brand's typical customer), category (perceptions of whether a face represents a category's typical customer), and customer persona (perceptions of whether a face represents the persona of a brand's customer segment).
以上の結果から,顔の知覚に関する既存の文献を豊かにし,そのほとんどがブリッジされた属性(口幅など)に基づいていることが明らかとなった。
tmudは理論的洞察を生み出す有用なパラダイムとなる可能性があり、より多くのマーケティング研究者や実践者が無橋のデータを使うよう促す可能性がある。
関連論文リスト
- Debias your Large Multi-Modal Model at Test-Time with Non-Contrastive Visual Attribute Steering [7.471995248769638]
大規模マルチモーダルモデル(LMM)のための新しいデバイアス化フレームワークを提案する。
提案手法は,1つの画像と対象属性のリストが与えられた場合,画像自体の勾配降下の1ステップで対応する表現をアブレーションすることができる。
我々の実験は、LMMが保護属性に関連するテキストを生成することの妥当性を最小化できるだけでなく、感情を改善し、単に合成データを使ってアブレーションを知らせることさえできることを示した。
論文 参考訳(メタデータ) (2024-11-15T20:06:09Z) - Dataset Scale and Societal Consistency Mediate Facial Impression Bias in Vision-Language AI [17.101569078791492]
43のCLIP視覚言語モデルを用いて、人間の顔の印象バイアスを学習するかどうかを検証した。
社会全体でバイアスが共有される度合いがCLIPモデルに反映される度合いを予測するのはこれが初めてである。
論文 参考訳(メタデータ) (2024-08-04T08:26:58Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Faceptor: A Generalist Model for Face Perception [52.8066001012464]
Faceptorは、よく設計されたシングルエンコーダのデュアルデコーダアーキテクチャを採用するために提案されている。
Faceptorへのレイヤアテンションにより、モデルが最適なレイヤから機能を適応的に選択して、望ましいタスクを実行することができる。
我々のトレーニングフレームワークは補助的な教師付き学習にも適用でき、年齢推定や表現認識といったデータスパースタスクの性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-03-14T15:42:31Z) - Language Agents for Detecting Implicit Stereotypes in Text-to-image
Models at Scale [45.64096601242646]
テキスト・ツー・イメージモデルにおけるステレオタイプ検出に適した新しいエージェントアーキテクチャを提案する。
複数のオープンテキストデータセットに基づいたステレオタイプ関連ベンチマークを構築した。
これらのモデルは、個人的特性に関する特定のプロンプトに関して、深刻なステレオタイプを示すことが多い。
論文 参考訳(メタデータ) (2023-10-18T08:16:29Z) - Learn From Model Beyond Fine-Tuning: A Survey [78.80920533793595]
Learn From Model (LFM) は、モデルインターフェースに基づいた基礎モデル(FM)の研究、修正、設計に焦点を当てている。
LFM技術の研究は、モデルチューニング、モデル蒸留、モデル再利用、メタラーニング、モデル編集の5つの分野に大別できる。
本稿では, LFM の観点から, FM に基づく現在の手法を概観する。
論文 参考訳(メタデータ) (2023-10-12T10:20:36Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Incorporating Vision Bias into Click Models for Image-oriented Search
Engine [51.192784793764176]
本論文では,画像指向検索エンジンに視覚バイアスが存在することを,位置以外の検査確率に影響する重要な要因と仮定する。
候補文書から抽出した視覚特徴から視覚バイアスを予測するために回帰型emアルゴリズムを用いた。
論文 参考訳(メタデータ) (2021-01-07T10:01:31Z) - Interpretabilit\'e des mod\`eles : \'etat des lieux des m\'ethodes et
application \`a l'assurance [1.6058099298620423]
データは、今日の多くのモデルの原材料であり、デジタルサービスの品質とパフォーマンスを向上させることができる。
モデル利用者は、モデルが差別されないようにし、その結果を説明することも可能であることを保証する必要がある。
予測アルゴリズムのパネルを広げると、科学者はモデルの使用について警戒するようになる。
論文 参考訳(メタデータ) (2020-07-25T12:18:07Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。