論文の概要: Stochastic Streets: A Walk Through Random LLM Address Generation in four European Cities
- arxiv url: http://arxiv.org/abs/2509.12914v1
- Date: Tue, 16 Sep 2025 10:09:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.024298
- Title: Stochastic Streets: A Walk Through Random LLM Address Generation in four European Cities
- Title(参考訳): 確率的街路:ヨーロッパの4都市におけるランダムなLLMアドレス生成
- Authors: Tairan Fu, David Campo-Nazareno, Javier Coronado-Blázquez, Javier Conde, Pedro Reviriego, Fabrizio Lombardi,
- Abstract要約: 大規模言語モデル(LLM)は、複雑な数学の問題を解くか、どんなトピックでも難しい問題に答えることができる。
しかし、彼らはヨーロッパの都市のためにランダムな道路アドレスを生成することができるのか?
- 参考スコア(独自算出の注目度): 5.9312537509221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are capable of solving complex math problems or answer difficult questions on almost any topic, but can they generate random street addresses for European cities?
- Abstract(参考訳): 大きな言語モデル(LLM)は、複雑な数学の問題を解いたり、どんなトピックでも難しい質問に答えることができるが、ヨーロッパの都市でランダムな街頭アドレスを生成できるだろうか?
関連論文リスト
- AddressVLM: Cross-view Alignment Tuning for Image Address Localization using Large Vision-Language Models [61.350774745321566]
大規模視覚言語モデル (LVLM) は, 国土や都市部における粗粒度の地理的局在化において, 顕著な性能を示した。
都市部における街路レベルの微粒化に苦慮している。
本稿では,街路ビュー画像を用いたフレキシブルなアドレス関連質問応答を容易にするため,都市全体のアドレスローカライズ機能をLVLMに統合することを検討する。
論文 参考訳(メタデータ) (2025-08-14T14:06:28Z) - DistRAG: Towards Distance-Based Spatial Reasoning in LLMs [1.1435139523855764]
我々は,LLMが学習中に明示的に学習されていない関連空間情報を検索することのできる新しいアプローチであるDistRAGを開発した。
本手法は,都市と町の間の測地距離をグラフにエンコードし,その問合せに関連する文脈部分グラフを検索する。
論文 参考訳(メタデータ) (2025-06-03T22:10:39Z) - What can LLM tell us about cities? [6.405546719612814]
本研究では,世界規模で都市や地域に関する知識を提供する上で,大規模言語モデル(LLM)の能力について検討する。
実験の結果、LLMはグローバルな都市に広範に多様な知識を組み込んでおり、MLモデルはLLMに由来する特徴に基づいて一貫して訓練され、予測精度が向上していることがわかった。
論文 参考訳(メタデータ) (2024-11-25T09:07:56Z) - GenSco: Can Question Decomposition based Passage Alignment improve Question Answering? [1.5776201492893507]
ジェンスコ(GenSco)は,マルチホップ質問の予測分解に基づく経路選択手法である。
広範に確立された3つのマルチホップ質問応答データセットについて評価した。
論文 参考訳(メタデータ) (2024-07-14T15:25:08Z) - Lean Workbook: A large-scale Lean problem set formalized from natural language math problems [51.15420267178]
大規模な言語モデルは、リーンのような形式言語を使って証明する数学の定理が得意ではありません。
この領域で重要な課題は、これらの形式言語で利用可能なトレーニングデータの不足である。
本稿では,自然言語の数学的問題をリーン4文に変換するために,合成データを反復的に生成・フィルタリングするパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-06T08:25:43Z) - Frontier Language Models are not Robust to Adversarial Arithmetic, or
"What do I need to say so you agree 2+2=5? [88.59136033348378]
言語モデルアライメントのための単純なテストベッドを提供する逆算術の問題を考察する。
この問題は自然言語で表される算術的な問題から成り、質問が完了する前に任意の逆文字列を挿入する。
これらの攻撃に対して、強化学習やエージェント構成ループを通じて、モデルを部分的に強化できることが示される。
論文 参考訳(メタデータ) (2023-11-08T19:07:10Z) - Exploring the Responses of Large Language Models to Beginner
Programmers' Help Requests [1.8260333137469122]
大規模言語モデル(LLM)が、学生が助けを求める問題のあるコードの問題を特定するのにいかに優れているかを評価する。
オンラインプログラミングコースからヘルプリクエストとコードのサンプルを収集しました。
論文 参考訳(メタデータ) (2023-06-09T07:19:43Z) - Triggering Multi-Hop Reasoning for Question Answering in Language Models
using Soft Prompts and Random Walks [1.5254598796939924]
構造化知識グラフ上のランダムウォークを頼りにすることで,この制限を改善する手法を提案する。
具体的には、ソフトプロンプトを使用して、複数のホップ質問をランダムなウォークパスにマッピングすることで、LMのコード化された知識をチェーン化する。
2 つの T5 LM にメソッドを適用することで、2 ホップ推論を必要とする問題に答える上で、標準チューニングアプローチよりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2023-06-06T20:45:18Z) - LLM+P: Empowering Large Language Models with Optimal Planning
Proficiency [46.20085545432116]
大規模言語モデル(LLM)は、目覚ましいゼロショットの一般化能力を示している。
古典的なプランナーは、一度形式化された方法で問題が与えられると、効率的な検索アルゴリズムを使って、正しい、あるいは最適なプランを素早く特定できる。
本稿では,従来のプランナーの強みを LLM に組み込んだ最初のフレームワークである LLM+P を紹介する。
論文 参考訳(メタデータ) (2023-04-22T20:34:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。