論文の概要: Spatially-Enhanced Retrieval-Augmented Generation for Walkability and Urban Discovery
- arxiv url: http://arxiv.org/abs/2512.04790v1
- Date: Thu, 04 Dec 2025 13:37:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.186673
- Title: Spatially-Enhanced Retrieval-Augmented Generation for Walkability and Urban Discovery
- Title(参考訳): 歩行性・都市発見のための空間的拡張型検索生成
- Authors: Maddalena Amendola, Chiara Pugliese, Raffaele Perego, Chiara Renso,
- Abstract要約: 大規模言語モデル(LLM)は人工知能の基礎となるツールとなっている。
歩行可能な都会の旅程を推薦するための対話インタフェースを備えた空間RAGベースのフレームワークであるWalkRAGを紹介する。
予備的な結果は、都市発見を支援するために情報検索、空間推論、LLMの組み合わせの有効性を示している。
- 参考スコア(独自算出の注目度): 4.010768140638523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have become foundational tools in artificial intelligence, supporting a wide range of applications beyond traditional natural language processing, including urban systems and tourist recommendations. However, their tendency to hallucinate and their limitations in spatial retrieval and reasoning are well known, pointing to the need for novel solutions. Retrieval-augmented generation (RAG) has recently emerged as a promising way to enhance LLMs with accurate, domain-specific, and timely information. Spatial RAG extends this approach to tasks involving geographic understanding. In this work, we introduce WalkRAG, a spatial RAG-based framework with a conversational interface for recommending walkable urban itineraries. Users can request routes that meet specific spatial constraints and preferences while interactively retrieving information about the path and points of interest (POIs) along the way. Preliminary results show the effectiveness of combining information retrieval, spatial reasoning, and LLMs to support urban discovery.
- Abstract(参考訳): 大規模言語モデル(LLM)は人工知能の基盤となるツールとなり、都市システムや観光レコメンデーションなど、従来の自然言語処理以外の幅広い応用をサポートするようになった。
しかし, 空間探索と推論における幻覚の傾向とその限界は, 新たな解の必要性を示唆してよく知られている。
Retrieval-augmented Generation (RAG) は、LLMを正確でドメイン固有でタイムリーな情報で拡張する有望な方法として最近登場した。
空間RAGは、このアプローチを地理的理解を含むタスクに拡張する。
本研究では,歩行可能な都会の旅程を推薦するための対話インタフェースを備えた空間RAGベースのフレームワークであるWalkRAGを紹介する。
ユーザーは特定の空間的制約や嗜好を満たすルートを要求でき、途中で経路や関心点(POI)に関する情報をインタラクティブに検索することができる。
予備的な結果は、都市発見を支援するために情報検索、空間推論、LLMの組み合わせの有効性を示している。
関連論文リスト
- GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - DistRAG: Towards Distance-Based Spatial Reasoning in LLMs [1.1435139523855764]
我々は,LLMが学習中に明示的に学習されていない関連空間情報を検索することのできる新しいアプローチであるDistRAGを開発した。
本手法は,都市と町の間の測地距離をグラフにエンコードし,その問合せに関連する文脈部分グラフを検索する。
論文 参考訳(メタデータ) (2025-06-03T22:10:39Z) - Spatial-RAG: Spatial Retrieval Augmented Generation for Real-World Geospatial Reasoning Questions [5.053463027769152]
空間RAG(Spatial-RAG)は、地理空間質問応答用に設計された検索型生成フレームワークである。
構造化空間データベースと大きな言語モデル(LLM)をハイブリッド空間レトリバーを介して統合する。
応答過程を空間的および意味的関連性に対する多目的最適化として定式化する。
論文 参考訳(メタデータ) (2025-02-04T01:30:06Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。