論文の概要: Invisible Walls in Cities: Leveraging Large Language Models to Predict Urban Segregation Experience with Social Media Content
- arxiv url: http://arxiv.org/abs/2503.04773v2
- Date: Mon, 10 Mar 2025 06:15:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:44:09.597703
- Title: Invisible Walls in Cities: Leveraging Large Language Models to Predict Urban Segregation Experience with Social Media Content
- Title(参考訳): 都市における不可視の壁:大規模言語モデルを活用してソーシャルメディアコンテンツによる都市分離体験を予測する
- Authors: Bingbing Fan, Lin Chen, Songwei Li, Jian Yuan, Fengli Xu, Pan Hui, Yong Li,
- Abstract要約: 本稿では,大規模言語モデルを用いてオンラインレビューマイニングを自動化し,セグレゲーション予測を提案する。
我々は,文化共鳴や魅力などの分離経験を示す重要な次元を捉えたコードブックを作成した。
我々のフレームワークは予測精度を大幅に改善し、R2は22.79%、MSEは9.33%低下した。
- 参考スコア(独自算出の注目度): 21.34394159491078
- License:
- Abstract: Understanding experienced segregation in urban daily life is crucial for addressing societal inequalities and fostering inclusivity. The abundance of user-generated reviews on social media encapsulates nuanced perceptions and feelings associated with different places, offering rich insights into segregation. However, leveraging this data poses significant challenges due to its vast volume, ambiguity, and confluence of diverse perspectives. To tackle these challenges, we propose using Large Language Models (LLMs) to automate online review mining for segregation prediction. We design a Reflective LLM Coder to digest social media content into insights consistent with real-world feedback, and eventually produce a codebook capturing key dimensions that signal segregation experience, such as cultural resonance and appeal, accessibility and convenience, and community engagement and local involvement. Guided by the codebook, LLMs can generate both informative review summaries and ratings for segregation prediction. Moreover, we design a REasoning-and-EMbedding (RE'EM) framework, which combines the reasoning and embedding capabilities of language models to integrate multi-channel features for segregation prediction. Experiments on real-world data demonstrate that our framework greatly improves prediction accuracy, with a 22.79% elevation in R2 and a 9.33% reduction in MSE. The derived codebook is generalizable across three different cities, consistently improving prediction accuracy. Moreover, our user study confirms that the codebook-guided summaries provide cognitive gains for human participants in perceiving POIs' social inclusiveness. Our study marks an important step toward understanding implicit social barriers and inequalities, demonstrating the great potential of promoting social inclusiveness with AI.
- Abstract(参考訳): 都会の日常生活における経験的な隔離を理解することは、社会的不平等に対処し、不平等を育むために不可欠である。
ソーシャルメディア上でのユーザ生成レビューの多さは、異なる場所に関連するニュアンスドの知覚と感情をカプセル化し、差別に関する豊富な洞察を提供する。
しかし、このデータを活用することは、その膨大な量、あいまいさ、多様な視点の一致によって大きな課題を生んでいる。
これらの課題に対処するため,我々はLarge Language Models (LLM) を用いてオンラインレビューマイニングの自動化と分離予測を提案する。
我々は、リフレクティブLLMコーダを設計し、ソーシャルメディアコンテンツを現実世界のフィードバックと整合した洞察にダイジェストし、最終的に文化共鳴や魅力、アクセシビリティ、利便性、コミュニティの関与、地域への関与など、差別化体験を示す重要な次元を捉えたコードブックを作成する。
コードブックによってガイドされたLLMは、情報的なレビューサマリーと、分離予測のための評価の両方を生成することができる。
さらに,言語モデルの推論と埋め込み機能を組み合わせたReasoning-and-EMbedding (RE'EM) フレームワークを設計し,分離予測のためのマルチチャネル機能を統合する。
実世界のデータを用いた実験では、我々のフレームワークは予測精度を大幅に改善し、R2は22.79%、MSEは9.33%低下した。
派生したコードブックは3つの異なる都市で一般化可能であり、予測精度が一貫して向上している。
さらに,本研究は,コードブックに指導された要約が,POIの社会的包摂性を知覚する上で,認知的利益をもたらすことを確認した。
我々の研究は、暗黙の社会的障壁と不平等を理解するための重要なステップであり、AIによる社会的包摂性を促進する大きな可能性を示している。
関連論文リスト
- InclusiViz: Visual Analytics of Human Mobility Data for Understanding and Mitigating Urban Segregation [41.758626973743525]
InclusiVizは、都市分離の多段階解析のための新しいビジュアル分析システムである。
我々は、環境特徴を用いた社会集団間の移動パターン予測のためのディープラーニングモデルを構築し、説明可能なAIを付加した。
このシステムは、ユーザーが広範囲にわたる概要から細かな詳細まで、分離パターンを探索できる革新的な可視化技術を統合している。
論文 参考訳(メタデータ) (2025-01-07T07:50:36Z) - Examining the Role of Relationship Alignment in Large Language Models [16.005988222702996]
本研究は、コメント者とポスターの性別、年齢、友情の近さの異なる組み合わせで意味音を予測できるLlama 3.0(70B)の能力を評価する。
その結果, 社会的関係情報を含めることで, 人間のコメントの意味的トーンを予測するモデルの有効性が向上することがわかった。
パートIIの結果は,社会文脈情報をインプロンプトに含まない場合でも,LLM生成コメントや人的コメントは社会的文脈に等しく敏感であることを示している。
論文 参考訳(メタデータ) (2024-10-02T16:16:02Z) - Social Debiasing for Fair Multi-modal LLMs [55.8071045346024]
MLLM(Multi-modal Large Language Models)は、強力な視覚言語理解機能を提供する。
しかしながら、これらのモデルはトレーニングデータセットから深刻な社会的偏見を継承することが多く、人種や性別といった属性に基づいた不公平な予測につながります。
本稿では,MLLMにおける社会的バイアスの問題に対処する。i)多元的社会的概念(CMSC)を用いた包括的対実的データセットの導入,i)アンチステレオタイプデバイアス戦略(ASD)を提案する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - MuseCL: Predicting Urban Socioeconomic Indicators via Multi-Semantic Contrastive Learning [13.681538916025021]
MuseCLは、都市部の詳細なプロファイリングと社会経済予測のためのフレームワークである。
ストリートビューとリモートセンシング画像のためのコントラスト的なサンプルペアを構築し,人間の移動性に類似点を生かした。
これらの領域に埋め込まれたPOIテキストから,事前学習したテキストエンコーダを用いて意味的な洞察を抽出する。
論文 参考訳(メタデータ) (2024-06-23T09:49:41Z) - Ask LLMs Directly, "What shapes your bias?": Measuring Social Bias in Large Language Models [11.132360309354782]
社会的偏見は、様々な人口統計学的アイデンティティを対象とする社会的認識の蓄積によって形成される。
本研究では,社会的知覚を直感的に定量化し,大規模言語モデルにおける社会的バイアスを評価する指標を提案する。
論文 参考訳(メタデータ) (2024-06-06T13:32:09Z) - Chain-of-Thought Prompting for Demographic Inference with Large Multimodal Models [58.58594658683919]
大規模マルチモーダルモデル (LMM) は、様々な研究課題において変換可能性を示している。
以上の結果から,LMMはゼロショット学習,解釈可能性,未修正入力の処理に長所があることが示唆された。
本稿では,目標外予測問題を効果的に緩和するChain-of-Thought拡張プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T16:26:56Z) - No Filter: Cultural and Socioeconomic Diversity in Contrastive Vision-Language Models [38.932610459192105]
コントラッシブ・ビジョン言語モデル(VLM)における文化的・社会経済的多様性の研究
我々の研究は、より包括的なマルチモーダルシステムを構築するために、多様なデータを使うことの価値を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-05-22T16:04:22Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。