論文の概要: From Drone Imagery to Livability Mapping: AI-powered Environment Perception in Rural China
- arxiv url: http://arxiv.org/abs/2508.21738v2
- Date: Mon, 03 Nov 2025 03:53:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 16:14:22.207496
- Title: From Drone Imagery to Livability Mapping: AI-powered Environment Perception in Rural China
- Title(参考訳): ドローン画像からリビビリティマッピングへ:中国農村部におけるAIを活用した環境認識
- Authors: Weihuan Deng, Yaofu Huang, Luan Chen, Xun Li, Yu Gu, Yao Yao,
- Abstract要約: VLCR(Vision-Language Contrastive Ranking Framework)は、中国における農村の可視性評価のためのフレームワークである。
このフレームワークは、マルチモーダルな大規模言語モデル(MLLM)を誘導し、ドローン写真から生活の質と生態的居住性に関連する視覚的特徴を特定するためのチェーン・オブ・シークレット戦略を採用している。
提案手法はスピアマンフットルル距離0.74で性能が向上し,市販のMLLMよりも0.1%向上した。
- 参考スコア(独自算出の注目度): 9.034240130900802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The high cost of acquiring rural street view images has constrained comprehensive environmental perception in rural areas. Drone photographs, with their advantages of easy acquisition, broad coverage, and high spatial resolution, offer a viable approach for large-scale rural environmental perception. However, a systematic methodology for identifying key environmental elements from drone photographs and quantifying their impact on environmental perception remains lacking. To address this gap, a Vision-Language Contrastive Ranking Framework (VLCR) is designed for rural livability assessment in China. The framework employs chain-of-thought prompting strategies to guide multimodal large language models (MLLMs) in identifying visual features related to quality of life and ecological habitability from drone photographs. Subsequently, to address the instability in pairwise village comparison, a text description-constrained drone photograph comparison strategy is proposed. Finally, to overcome the efficiency bottleneck in nationwide pairwise village comparisons, an innovation ranking algorithm based on binary search interpolation is developed, which reduces the number of comparisons through automated selection of comparison targets. The proposed framework achieves superior performance with a Spearman Footrule distance of 0.74, outperforming mainstream commercial MLLMs by approximately 0.1. Moreover, the mechanism of concurrent comparison and ranking demonstrates a threefold enhancement in computational efficiency. Our framework has achieved data innovation and methodological breakthroughs in village livability assessment, providing strong support for large-scale village livability analysis. Keywords: Drone photographs, Environmental perception, Rural livability assessment, Multimodal large language models, Chain-of-thought prompting.
- Abstract(参考訳): 農村部における景観画像取得の高コスト化は、農村部における総合的な環境認識を制約している。
ドローン写真は、容易に取得し、広い範囲をカバーし、空間分解能が高いという利点があり、大規模な農村環境認識に有効なアプローチを提供する。
しかし、ドローン写真から重要な環境要素を識別し、その環境知覚に与える影響を定量化するための体系的手法は、いまだに欠如している。
このギャップに対処するため、中国における農村自由度評価のためにVLCR(Vision-Language Contrastive Ranking Framework)が設計されている。
このフレームワークは、マルチモーダルな大規模言語モデル(MLLM)を誘導し、ドローン写真から生活の質と生態的居住性に関連する視覚的特徴を特定するためのチェーン・オブ・シークレット戦略を採用している。
その後,両村間比較における不安定性に対処するため,テキスト記述制約付きドローン写真比較戦略を提案する。
最後に,全国の対村比較における効率のボトルネックを克服するため,二分探索補間に基づくイノベーションランキングアルゴリズムを開発し,比較対象の自動選択による比較数を削減した。
提案手法は,スピアマンフットルル距離0.74で性能が向上し,市販のMLLMを0.1%程度上回った。
さらに、コンカレント・コンカレント・コンカレント・コンカレント・コンカレント・コンカレント・ランキングのメカニズムは、計算効率の3倍向上を示す。
我々の枠組みは,村の生活可能性評価におけるデータ革新と方法論的ブレークスルーを達成し,大規模村の生活可能性分析を強力に支援している。
キーワード:ドローン写真、環境認識、農村自由度評価、マルチモーダルな大言語モデル、思考の連鎖。
関連論文リスト
- Beyond surveys: A High-Precision Wealth Inequality Mapping of China's Rural Households Derived from Satellite and Street View Imageries [5.030899307170801]
本稿は、農村部における「スキー」なリモートセンシング画像と「地上」な街路ビュー画像を統合し、きめ細かい「計算可能な」技術経路を構築することを目的とする。
論文 参考訳(メタデータ) (2025-02-11T09:36:25Z) - Granularity at Scale: Estimating Neighborhood Socioeconomic Indicators
from High-Resolution Orthographic Imagery and Hybrid Learning [1.8369448205408005]
オーバーヘッド画像は、コミュニティ情報が不足しているギャップを埋めるのに役立つ。
機械学習とコンピュータビジョンの最近の進歩により、画像データのパターンから素早く特徴を抽出し、検出することが可能になった。
本研究では, 人口密度, 中央値世帯所得, 教育達成率の2つのアプローチ, 教師付き畳み込みニューラルネットワークと半教師付きクラスタリングについて検討する。
論文 参考訳(メタデータ) (2023-09-28T19:30:26Z) - Graph-based Village Level Poverty Identification [52.12744462605759]
Webインフラストラクチャとそのモデリングツールの開発は、貧しい村を識別するための新しいアプローチを提供する。
地理的距離を通して村の接続をグラフとしてモデル化することにより,村の貧困状況とグラフトポロジ的位置との相関関係を示す。
貧しい村を識別する最初のグラフベース手法を提案する。
論文 参考訳(メタデータ) (2023-02-14T06:58:40Z) - Combining deep learning and crowdsourcing geo-images to predict housing
quality in rural China [20.16424972411847]
住宅の質は、地域の富、安全保障、健康にとって不可欠な指標である。
大規模な農村画像を収集し、利用者に住宅の質を大規模に評価するよう依頼する。
クラウドソーシング型農村画像に基づく住宅品質の自動的・効率的予測のためのディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-15T03:58:03Z) - IS-COUNT: Large-scale Object Counting from Satellite Images with
Covariate-based Importance Sampling [90.97859312029615]
本研究では,大規模地形におけるオブジェクト数統計をサンプリングによって推定する手法を提案する。
提案手法は,米国とアフリカ,ケニアの自動車,バングラデシュのレンガキルン,米国のスイミングプールの建物数の推定において,高い性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-16T18:59:29Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Predicting Livelihood Indicators from Community-Generated Street-Level
Imagery [70.5081240396352]
本稿では,クラウドソースによるストリートレベルの画像から重要な生活指標を予測するための,安価でスケーラブルで解釈可能なアプローチを提案する。
全国的に代表される世帯調査で収集した地上データと比較することにより,貧困,人口,健康の指標を正確に予測する上でのアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-06-15T18:12:12Z) - Facebook Ads as a Demographic Tool to Measure the Urban-Rural Divide [6.61600499731972]
われわれは、Facebookの広告プラットフォームの有用性について検討する。
我々は、Facebookが生み出す人口統計が、時間とともに不安定に陥り、人口の少ない自治体が不完全な範囲をカバーしていることを示す。
公的な国勢調査データを用いて、我々のアプローチを評価し、教育の達成と収入の観点から、既知の重要な都市と農村の分断を確認した。
論文 参考訳(メタデータ) (2020-02-26T17:19:24Z) - Generating Interpretable Poverty Maps using Object Detection in
Satellite Images [80.35540308137043]
衛星画像に物体検出装置を適用することにより、局所レベルでの貧困を正確に予測するための解釈可能な計算手法を実証する。
対象物の重み付けを特徴として、ウガンダの村レベルの貧困を予測する0.539 Pearson's r2を達成し、既存の(解釈不可能でない)ベンチマークよりも31%改善した。
論文 参考訳(メタデータ) (2020-02-05T02:50:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。