論文の概要: Combating Homelessness Stigma with LLMs: A New Multi-Modal Dataset for Bias Detection
- arxiv url: http://arxiv.org/abs/2508.13187v1
- Date: Thu, 14 Aug 2025 17:58:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.639937
- Title: Combating Homelessness Stigma with LLMs: A New Multi-Modal Dataset for Bias Detection
- Title(参考訳): LLMを用いたホームレススティグマの圧縮 : バイアス検出のための新しいマルチモーダルデータセット
- Authors: Jonathan A. Karr Jr., Benjamin F. Herbst, Ting Hua, Matthew Hauenstein, Georgina Curto, Nitesh V. Chawla,
- Abstract要約: 社会的スティグマティゼーションは、緩和し、大衆の認識をシフトさせ、政策決定に影響を与える障壁である。
本研究は,公共の意見に基づくホームレスの緩和に寄与する。
Reddit、X(元Twitter)、ニュース記事、市議会の議事録から収集された、手動で注釈付けされた新しいデータセットを米国10都市で提示する。
- 参考スコア(独自算出の注目度): 19.1540866167885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Homelessness is a persistent social challenge, impacting millions worldwide. Over 770,000 people experienced homelessness in the U.S. in 2024. Social stigmatization is a significant barrier to alleviation, shifting public perception, and influencing policymaking. Given that online and city council discourse reflect and influence part of public opinion, it provides valuable insights to identify and track social biases. This research contributes to alleviating homelessness by acting on public opinion. It introduces novel methods, building on natural language processing (NLP) and large language models (LLMs), to identify and measure PEH social bias expressed in digital spaces. We present a new, manually-annotated multi-modal dataset compiled from Reddit, X (formerly Twitter), news articles, and city council meeting minutes across 10 U.S. cities. This unique dataset provides evidence of the typologies of homelessness bias described in the literature. In order to scale up and automate the detection of homelessness bias online, we evaluate LLMs as classifiers. We applied both zero-shot and few-shot classification techniques to this data. We utilized local LLMs (Llama 3.2 3B Instruct, Qwen 2.5 7B Instruct, and Phi4 Instruct Mini) as well as closed-source API models (GPT-4.1, Gemini 2.5 Pro, and Grok-4). Our findings reveal that although there are significant inconsistencies in local LLM zero-shot classification, the in-context learning classification scores of local LLMs approach the classification scores of closed-source LLMs. Furthermore, LLMs outperform BERT when averaging across all categories. This work aims to raise awareness about the pervasive bias against PEH, develop new indicators to inform policy, and ultimately enhance the fairness and ethical application of Generative AI technologies.
- Abstract(参考訳): ホームレスは永続的な社会的課題であり、世界中で何百万もの人に影響を与えている。
2024年のアメリカでは770,000人以上がホームレスを経験している。
社会的スティグマティゼーションは、緩和、大衆の認識の変化、政策決定に影響を与える重要な障壁である。
オンラインおよび市議会の談話が世論の一部を反映し、影響を及ぼすことを考えると、社会的偏見を特定し、追跡するための貴重な洞察を提供する。
本研究は,公共の意見に基づくホームレスの緩和に寄与する。
自然言語処理(NLP)と大規模言語モデル(LLM)に基づく新しい手法を導入し、デジタル空間で表現されたPEHの社会的バイアスを特定し測定する。
Reddit、X(元Twitter)、ニュース記事、市議会の議事録から収集した、手動で注釈付けされた新しいマルチモーダルデータセットを米国10都市で紹介する。
このユニークなデータセットは、文献に記述されているホームレスのバイアスのタイプロジの証拠を提供する。
ネット上でのホームレスのバイアス検出のスケールアップと自動化を目的として, LLMを分類器として評価した。
このデータにゼロショット分類法と少数ショット分類法を併用した。
ローカルLLM(Llama 3.2 3B Instruct, Qwen 2.5 7B Instruct, Phi4 Instruct Mini)とクローズドソースAPIモデル(GPT-4.1, Gemini 2.5 Pro, Grok-4)を利用した。
その結果,LLM のゼロショット分類には大きな矛盾があるものの,ローカル LLM の非コンテクスト学習分類スコアはクローズドソース LLM の分類スコアに近づいた。
さらに、LLMは、すべてのカテゴリの平均化においてBERTよりも優れています。
この研究は、PEHに対する広範な偏見に対する認識を高め、ポリシーを伝えるための新しい指標を開発し、最終的にジェネレーティブAI技術の公正性と倫理的応用を強化することを目的としている。
関連論文リスト
- Through the LLM Looking Glass: A Socratic Probing of Donkeys, Elephants, and Markets [42.55423041662188]
この研究は、外部解釈に頼るのではなく、モデルのバイアスを直接測定することを目的としている。
我々の結果は、あらゆるモデルで共和党の立場よりも民主党を一貫して好んでいることを示している。
経済の話題では、西洋のLLMには偏見があるが、中国で開発されたものは社会主義に強く依存している。
論文 参考訳(メタデータ) (2025-03-20T19:40:40Z) - Implicit Bias in LLMs: A Survey [2.07180164747172]
本稿では,大規模言語モデルにおける暗黙バイアスに関する既存の文献を包括的にレビューする。
まず、心理学における暗黙の偏見に関連する重要な概念、理論、方法を紹介する。
検出方法は,単語関連,タスク指向テキスト生成,意思決定の3つの主要なアプローチに分類する。
論文 参考訳(メタデータ) (2025-03-04T16:49:37Z) - LIBRA: Measuring Bias of Large Language Model from a Local Context [9.612845616659776]
大規模言語モデル(LLM)は、かなり高度な自然言語処理アプリケーションを持っている。
しかし、彼らの普及した利用は、特定の社会集団の実用性や害を減少させる固有のバイアスに関する懸念を提起する。
本研究は,これらの制約を,バイアス測定のためのローカル統合バイアス認識評価フレームワーク(LIBRA)を用いて解決する。
論文 参考訳(メタデータ) (2025-02-02T04:24:57Z) - Hate Personified: Investigating the role of LLMs in content moderation [64.26243779985393]
ヘイト検出などの主観的タスクでは,人々が嫌悪感を知覚する場合には,多様なグループを表現できるLarge Language Model(LLM)の能力は不明確である。
追加の文脈をプロンプトに含めることで、LLMの地理的プライミングに対する感受性、ペルソナ属性、数値情報を分析し、様々なグループのニーズがどの程度反映されているかを評価する。
論文 参考訳(メタデータ) (2024-10-03T16:43:17Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Large Language Models' Detection of Political Orientation in Newspapers [0.0]
新聞の立場をよりよく理解するための様々な方法が開発されている。
LLM(Large Language Models)の出現は、研究者や市民を補助する破壊的な可能性を秘めている。
我々は,広く採用されている4つのLCMが新聞の位置づけを評価する方法を比較し,その回答が相互に一致しているかどうかを比較する。
膨大なデータセットを通じて、新聞の記事は単一のLCMによって著しく異なる位置に配置され、アルゴリズムの一貫性のないトレーニングや過度なランダム性を示唆している。
論文 参考訳(メタデータ) (2024-05-23T06:18:03Z) - A Group Fairness Lens for Large Language Models [34.0579082699443]
大規模な言語モデルは、ソーシャルメディアの文脈に展開する際の偏見と不公平さを永久に防ぐことができる。
多様な社会集団を特徴付ける新しい階層型スキーマを用いて,グループフェアネスレンズからLLMバイアスを評価する。
我々は,グループフェアネスの観点からLLMのバイアスを軽減するために,GF-Thinkという新しいチェーン・オブ・シンク法を考案した。
論文 参考訳(メタデータ) (2023-12-24T13:25:15Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。