論文の概要: On the Performance of LLMs for Real Estate Appraisal
- arxiv url: http://arxiv.org/abs/2506.11812v1
- Date: Fri, 13 Jun 2025 14:14:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.824779
- Title: On the Performance of LLMs for Real Estate Appraisal
- Title(参考訳): 不動産評価のためのLLMの性能について
- Authors: Margot Geerts, Manon Reusens, Bart Baesens, Seppe vanden Broucke, Jochen De Weerdt,
- Abstract要約: 本研究では,Large Language Models (LLMs) が,競争力と解釈可能な住宅価格推定を生成することによって,不動産情報へのアクセスを民主化する方法について検討する。
我々は,多種多様な国際住宅データを用いて,ゼロショット,少数ショット,市場レポート強化,ハイブリッドプロンプト技術の比較を行った。
この結果から, LLMは, 特性サイズやアメニティなどのヘドニック変数を有効利用し, 有意義な推定値が得られることがわかった。
- 参考スコア(独自算出の注目度): 5.812129569528997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The real estate market is vital to global economies but suffers from significant information asymmetry. This study examines how Large Language Models (LLMs) can democratize access to real estate insights by generating competitive and interpretable house price estimates through optimized In-Context Learning (ICL) strategies. We systematically evaluate leading LLMs on diverse international housing datasets, comparing zero-shot, few-shot, market report-enhanced, and hybrid prompting techniques. Our results show that LLMs effectively leverage hedonic variables, such as property size and amenities, to produce meaningful estimates. While traditional machine learning models remain strong for pure predictive accuracy, LLMs offer a more accessible, interactive and interpretable alternative. Although self-explanations require cautious interpretation, we find that LLMs explain their predictions in agreement with state-of-the-art models, confirming their trustworthiness. Carefully selected in-context examples based on feature similarity and geographic proximity, significantly enhance LLM performance, yet LLMs struggle with overconfidence in price intervals and limited spatial reasoning. We offer practical guidance for structured prediction tasks through prompt optimization. Our findings highlight LLMs' potential to improve transparency in real estate appraisal and provide actionable insights for stakeholders.
- Abstract(参考訳): 不動産市場は世界経済にとって不可欠だが、重要な情報非対称性に悩まされている。
本研究では、大規模言語モデル(LLM)が、最適化されたインコンテキスト学習(ICL)戦略を通じて、競争力と解釈可能な住宅価格推定を生成することにより、不動産情報へのアクセスを民主化する方法について検討する。
我々は,多種多様な国際住宅データを用いたLLMの先進的評価を行い,ゼロショット,少数ショット,市場レポート強化,ハイブリッドプロンプト技術の比較を行った。
この結果から, LLMは, 特性サイズやアメニティなどのヘドニック変数を有効利用し, 有意義な推定値が得られることがわかった。
従来の機械学習モデルは、純粋な予測精度のために強力なままだが、LLMはよりアクセスしやすく、インタラクティブで、解釈可能な代替手段を提供する。
自己説明は慎重な解釈を必要とするが、LLMは彼らの予測を最先端のモデルと一致させて説明し、彼らの信頼性を確認している。
特徴的類似度と地理的近接性に基づいて、慎重に選択されたインコンテキストの例は、LLMの性能を著しく向上させるが、LLMは価格間隔の過信と空間的推論の制限に悩まされる。
我々は,素早い最適化による構造化予測タスクの実践的ガイダンスを提供する。
本研究は, LLMが不動産評価の透明性を高め, 利害関係者に実用的な洞察を提供する可能性を明らかにするものである。
関連論文リスト
- DeepFund: Will LLM be Professional at Fund Investment? A Live Arena Perspective [10.932591941137698]
本稿では,シミュレーション環境における大規模言語モデル(LLM)を評価するための総合的なプラットフォームであるDeepFundを紹介する。
提案手法は,LLMがアナリストとマネージャの両方として機能するマルチエージェントフレームワークを実装し,投資決定の現実的なシミュレーションを作成する。
異なる市場条件と投資パラメータをまたいだモデル性能を可視化し、詳細な比較分析を可能にするWebインターフェースを提供する。
論文 参考訳(メタデータ) (2025-03-24T03:32:13Z) - Financial Statement Analysis with Large Language Models [0.0]
我々はGPT4に標準化された匿名の財務文書を提供し、モデルを解析するように指示する。
このモデルでは、財務アナリストが収益の変化を予測できる能力を上回っている。
GPTの予測に基づく貿易戦略は、他のモデルに基づく戦略よりもシャープ比とアルファ率が高い。
論文 参考訳(メタデータ) (2024-07-25T08:36:58Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Benchmarking LLMs via Uncertainty Quantification [91.72588235407379]
オープンソースのLarge Language Models(LLM)の普及は、包括的な評価方法の緊急の必要性を強調している。
我々は不確実性定量化を統合した LLM のための新しいベンチマーク手法を提案する。
以上の結果より, 精度の高いLSMでは, 精度が低下する可能性があり, II) より大規模なLSMでは, より小型のLSMに比べて不確実性が高いこと, III) 命令ファインタニングではLCMの不確実性が高くなる傾向が示唆された。
論文 参考訳(メタデータ) (2024-01-23T14:29:17Z) - A Comparative Analysis of Fine-Tuned LLMs and Few-Shot Learning of LLMs
for Financial Sentiment Analysis [0.0]
我々は、財務分野のデータセット上で、コンテキスト内学習と微調整LDMの2つのアプローチを採用する。
以上の結果から, 微調整された小型LCMは, 最先端の微調整LDMに匹敵する性能を達成できることが示唆された。
文脈内学習におけるショット数が増加すると、財務領域の感情分析のパフォーマンスが向上することはない。
論文 参考訳(メタデータ) (2023-12-14T08:13:28Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。