論文の概要: Gender Bias and Property Taxes
- arxiv url: http://arxiv.org/abs/2412.12610v1
- Date: Tue, 17 Dec 2024 07:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:59:10.610720
- Title: Gender Bias and Property Taxes
- Title(参考訳): ジェンダーバイアスと資産税
- Authors: Gordon Burtch, Alejandro Zentner,
- Abstract要約: 我々は、10万人以上の不動産税告訴審理記録と2.7年以上の関連音声記録を分析した。
女性のアパレルは、聴聞会で男性アパレルよりも体系的に劣る。
我々の結果は、性別バイアスは、少なくとも部分的には、ABBパネリストの一部に関する無声の信念と認識によって引き起こされるという考え方と一致している。
- 参考スコア(独自算出の注目度): 50.18156030818883
- License:
- Abstract: Gender bias distorts the economic behavior and outcomes of women and households. We investigate gender biases in property taxes. We analyze records of more than 100,000 property tax appeal hearings and more than 2.7 years of associated audio recordings, considering how panelist and appellant genders associate with hearing outcomes. We first observe that female appellants fare systematically worse than male appellants in their hearings. Second, we show that, whereas male appellants' hearing outcomes do not vary meaningfully with the gender composition of the panel they face, those of female appellants' do, such that female appellants obtain systematically lesser (greater) reductions to their home values when facing female (male) panelists. Employing a multi-modal large language model (M-LLM), we next construct measures of participant behavior and tone from hearing audio recordings. We observe markedly different behaviors between male and female appellants and, in the case of male appellants, we find that these differences also depend on the gender of the panelists they face (e.g., male appellants appear to behave systematically more aggressively towards female panelists). In contrast, the behavior of female appellants remains relatively constant, regardless of their panel's gender. Finally, we show that female appellants continue to fare worse in front of female panels, even when we condition upon the appelant's in-hearing behavior and tone. Our results are thus consistent with the idea that gender biases are driven, at least in part, by unvoiced beliefs and perceptions on the part of ARB panelists. Our study documents the presence of gender biases in property appraisal appeal hearings and highlights the potential value of generative AI for analyzing large-scale, unstructured administrative data.
- Abstract(参考訳): ジェンダーバイアスは、女性や家庭の経済的行動と成果を歪めます。
資産税の男女差について検討する。
我々は、パネリストやアパレートジェンダーが聴聞結果とどのように関連しているかを考慮して、10万人以上の不動産税告訴審理と2.7年以上にわたるオーディオ記録の分析を行った。
まず, 女性の聴力低下は, 女性の聴力低下に起因し, 女性の聴力低下が観察された。
第2に,男性の聴覚結果がパネルの性別構成と有意に異なるのに対して,女性の聴覚者は,女性(男性)パネリストと向き合うと,体系的により少ない(より大きい)家庭価値を得られることを示す。
マルチモーダル大言語モデル (M-LLM) を用いて, 聴取者行動と聴取音声からのトーンの計測を行う。
また, 雄のアパニストと雌のアパニストの間に有意な差異がみられ, 雄のアパニストと雄のアパニストの性差は, パニリストの性差にも大きく依存していることがわかった(例えば, 雄のアパニストは女性パニリストに対して系統的に積極的に行動しているように見える)。
対照的に、パネルの性別に関わらず、女性のアパレルトの挙動は比較的一定である。
最後に, 女性の聴力低下は, 聴力の低下や声調の低下にともなっても, 女性の聴力低下が続くことを示す。
我々の結果は、性別バイアスは、少なくとも部分的には、ARBパネリストの一部に関する無声の信念と認識によって引き起こされるという考え方と一致している。
本研究は,大規模かつ非構造的な行政データを分析するための生成的AIの潜在的な価値を明らかにするため,資産評価聴取における性別バイアスの存在を文書化する。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Public Perceptions of Gender Bias in Large Language Models: Cases of
ChatGPT and Ernie [2.1756081703276]
本研究では,大規模言語モデルにおけるジェンダーバイアスの認知度を評価するために,ソーシャルメディア上での議論の内容分析を行った。
人々は、個人使用における性別バイアスの観察と、LSMにおける性別バイアスに関する科学的知見の両方を共有した。
LLMにおけるジェンダーバイアスを規制するためのガバナンスレコメンデーションを提案する。
論文 参考訳(メタデータ) (2023-09-17T00:53:34Z) - Smiling Women Pitching Down: Auditing Representational and
Presentational Gender Biases in Image Generative AI [0.6990493129893111]
153職種にまたがる15,300 DALL-E 2画像における2つの職業性バイアスの頻度について検討した。
DALL-E 2は、女性支配領域において女性を過剰に表現し、女性支配領域において女性を過剰に表現する。
本研究は,DALL-E 2における表現バイアスと提示バイアスを,Google Imagesと比較して明らかにした。
論文 参考訳(メタデータ) (2023-05-17T20:59:10Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Quantifying Gender Biases Towards Politicians on Reddit [19.396806939258806]
政治における男女平等を高める試みにもかかわらず、グローバルな努力は平等な女性代表の確保に苦慮している。
これは、権威のある女性に対する暗黙の性偏見と結びついている可能性が高い。
本稿では、オンライン政治討論に現れるジェンダーバイアスの包括的研究について述べる。
論文 参考訳(メタデータ) (2021-12-22T16:39:14Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Unsupervised Discovery of Implicit Gender Bias [38.59057512390926]
我々は、女性に対する性的偏見をコメントレベルで識別するために、教師なしのアプローチをとる。
主な課題は、データ内の他のアーティファクトではなく、暗黙のバイアスの兆候にモデルを集中させることです。
論文 参考訳(メタデータ) (2020-04-17T17:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。