論文の概要: Exploring Gender and Race Biases in the NFT Market
- arxiv url: http://arxiv.org/abs/2304.06484v1
- Date: Wed, 29 Mar 2023 17:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 21:46:22.910339
- Title: Exploring Gender and Race Biases in the NFT Market
- Title(参考訳): NFT市場におけるジェンダーとレースバイアスの探索
- Authors: Howard Zhong, Mark Hamilton
- Abstract要約: 非Fungible Tokens(NFT)は非交換可能な資産であり、通常はデジタルアートであり、ブロックチェーンに格納される。
予備研究により、メスとより暗い肌のNFTは、男性やより軽い肌のNFTよりも価値が低いことが判明した。
我々は、CryptoPunksの価格における人種とジェンダーのバイアスの統計的意義を検証し、幅広いNFT市場におけるジェンダーバイアスの最初の研究を示す。
- 参考スコア(独自算出の注目度): 0.7568479331927529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-Fungible Tokens (NFTs) are non-interchangeable assets, usually digital
art, which are stored on the blockchain. Preliminary studies find that female
and darker-skinned NFTs are valued less than their male and lighter-skinned
counterparts. However, these studies analyze only the CryptoPunks collection.
We test the statistical significance of race and gender biases in the prices of
CryptoPunks and present the first study of gender bias in the broader NFT
market. We find evidence of racial bias but not gender bias. Our work also
introduces a dataset of gender-labeled NFT collections to advance the broader
study of social equity in this emerging market.
- Abstract(参考訳): 非Fungible Tokens(NFT)は非交換可能な資産であり、通常はデジタルアートであり、ブロックチェーンに格納される。
予備研究により、女性や浅黒い肌のNFTは、男性や軽い肌のNFTよりも価値が低いことが判明した。
しかし、これらの研究はCryptoPunksコレクションのみを分析する。
我々は、CryptoPunksの価格における人種とジェンダーのバイアスの統計的意義を検証し、幅広いNFT市場におけるジェンダーバイアスの最初の研究を示す。
人種バイアスの証拠は見つかるが、性別バイアスは見当たらない。
我々の研究は、この新興市場におけるソーシャルエクイティの広範な研究を促進するために、ジェンダーラベル付きNFTコレクションのデータセットも導入している。
関連論文リスト
- From Bias to Balance: Detecting Facial Expression Recognition Biases in Large Multimodal Foundation Models [3.1927733045184885]
本研究では,大規模マルチモーダルファンデーションモデル(LMFM)における表情認識(FER)システムの人種的偏見について考察する。
既存の研究は主に従来のFERモデル(CNN、RNN、ViT)に焦点を当てており、LMFMにおける人種的バイアスの理解のギャップを残している。
GPT-4o、PaliGemma、Gemini、CLIPの4つの主要なLMFMをベンチマークし、異なる人種層にわたる顔の感情検出のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-08-27T07:54:01Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - On the Mechanics of NFT Valuation: AI Ethics and Social Media [9.0270684890377]
ソーシャルメディアの感情とジェンダーと肌のトーンがNFTの評価にどのように貢献するかを研究する。
クリプトパンクに対する人々の態度は概ね肯定的だが, 取引活動の不均衡や, 性別や肌の色調に基づく価格設定を反映している。
論文 参考訳(メタデータ) (2023-07-13T03:12:00Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Evaluating Gender Bias in Natural Language Inference [5.034017602990175]
推論による自然言語理解における性別バイアスの評価手法を提案する。
チャレンジタスクを使用して、職業を用いたジェンダーステレオタイプの存在に関する最先端のNLIモデルを調査します。
その結果,mnliとsnliデータセットでトレーニングされた3モデルでは,性別による予測誤差が有意に高いことが示唆された。
論文 参考訳(メタデータ) (2021-05-12T09:41:51Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Do Neural Ranking Models Intensify Gender Bias? [13.37092521347171]
まず、IRモデルのランキングリストにおいて、性別関連概念の非バランスの存在度を定量化するための2つの指標を含むバイアス測定フレームワークを提供する。
これらのクエリをMS MARCOパッセージ検索コレクションに適用し、BM25モデルと最近のニューラルランキングモデルの性別バイアスを測定する。
結果は、すべてのモデルが男性に対して強く偏りを呈する一方で、神経モデル、特に文脈化された埋め込みモデルに基づくモデルは、性バイアスを著しく強めていることを示している。
論文 参考訳(メタデータ) (2020-05-01T13:31:11Z) - Unsupervised Discovery of Implicit Gender Bias [38.59057512390926]
我々は、女性に対する性的偏見をコメントレベルで識別するために、教師なしのアプローチをとる。
主な課題は、データ内の他のアーティファクトではなく、暗黙のバイアスの兆候にモデルを集中させることです。
論文 参考訳(メタデータ) (2020-04-17T17:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。