論文の概要: Global path preference and local response: A reward decomposition
approach for network path choice analysis in the presence of locally
perceived attributes
- arxiv url: http://arxiv.org/abs/2307.08646v1
- Date: Fri, 14 Jul 2023 04:54:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:07:34.380484
- Title: Global path preference and local response: A reward decomposition
approach for network path choice analysis in the presence of locally
perceived attributes
- Title(参考訳): グローバルパス選好と局所応答:局所的認識属性の存在下でのネットワークパス選択分析のための報酬分解手法
- Authors: Yuki Oyama
- Abstract要約: 本研究では,ネットワークトラベラーのグローバルパスとローカルパスの嗜好の属性レベル解析を行う。
このアプローチは、各状態-作用ペアに関連する即時報酬関数をグローバルユーティリティに分解する。
多くの適応経路選択モデルとは異なり、提案モデルは明らかにされた経路観測に基づいて推定することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study performs an attribute-level analysis of the global and local path
preferences of network travelers. To this end, a reward decomposition approach
is proposed and integrated into a link-based recursive (Markovian) path choice
model. The approach decomposes the instantaneous reward function associated
with each state-action pair into the global utility, a function of attributes
globally perceived from anywhere in the network, and the local utility, a
function of attributes that are only locally perceived from the current state.
Only the global utility then enters the value function of each state,
representing the future expected utility toward the destination. This
global-local path choice model with decomposed reward functions allows us to
analyze to what extent and which attributes affect the global and local path
choices of agents. Moreover, unlike most adaptive path choice models, the
proposed model can be estimated based on revealed path observations (without
the information of plans) and as efficiently as deterministic recursive path
choice models. The model was applied to the real pedestrian path choice
observations in an urban street network where the green view index was
extracted as a visual street quality from Google Street View images. The result
revealed that pedestrians locally perceive and react to the visual street
quality, rather than they have the pre-trip global perception on it.
Furthermore, the simulation results using the estimated models suggested the
importance of location selection of interventions when policy-related
attributes are only locally perceived by travelers.
- Abstract(参考訳): 本研究では,ネットワークトラベラーのグローバルパスとローカルパスの嗜好の属性レベル解析を行う。
この目的のために報酬分解アプローチが提案され、リンクベースの再帰的(マルコフ的)経路選択モデルに統合される。
このアプローチでは、各状態-アクションペアに関連付けられた即時報酬関数をグローバルユーティリティ、ネットワーク内の任意の場所からグローバルに知覚される属性の関数、現在の状態から局所的にのみ知覚される属性の関数のローカルユーティリティに分解する。
グローバルユーティリティのみがそれぞれの状態の値関数を入力し、将来期待されるユーティリティを目的地に向けて表現する。
報酬関数を分解したグローバルローカルパス選択モデルにより,エージェントのグローバルパス選択とローカルパス選択にどのような属性が影響するかを解析することができる。
さらに、ほとんどの適応経路選択モデルとは異なり、提案モデルは明らかにされた経路観測に基づいて(計画の情報を含まない)、決定論的再帰経路選択モデルと同じくらい効率的に推定することができる。
Googleストリートビュー画像からグリーンビュー指標を視覚的ストリート品質として抽出した都市街路網における実際の歩行者経路選択観測に適用した。
その結果, 歩行者は, 街路の質を視覚的に知覚し, 反応することが明らかとなった。
さらに,評価モデルを用いたシミュレーションの結果,政策関連属性が旅行者にのみ認識される場合,介入の場所選択の重要性が示唆された。
関連論文リスト
- RING#: PR-by-PE Global Localization with Roto-translation Equivariant Gram Learning [20.688641105430467]
GPS信号が信頼できない場合、グローバルなローカライゼーションは自動運転やロボティクスの応用において不可欠である。
ほとんどのアプローチは、逐次位置認識(PR)とポーズ推定(PE)により、グローバルなローカライゼーションを実現する。
ポーズ推定から直接導出することで、別の場所認識の必要性を回避できる新しいパラダイムであるPR-by-PEローカライゼーションを導入する。
本稿では,鳥眼視(BEV)空間で動作する終端PR-by-PEローカライゼーションネットワークであるRING#を提案する。
論文 参考訳(メタデータ) (2024-08-30T18:42:53Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - Evolutionary Neural Architecture Search for Transformer in Knowledge
Tracing [8.779571123401185]
本稿では,入力特徴選択を自動化する進化的ニューラルアーキテクチャ探索手法を提案し,ローカル・グローバル・コンテキスト・モデリングのバランシングを実現するためにどの操作を適用すべきかを自動決定する。
2つの最大かつ最も困難な教育データセットの実験結果は、提案手法によって発見されたアーキテクチャの有効性を実証している。
論文 参考訳(メタデータ) (2023-10-02T13:19:33Z) - Pishgu: Universal Path Prediction Architecture through Graph Isomorphism
and Attentive Convolution [2.6774008509840996]
本稿では、注意経路予測のための普遍グラフ同型アプローチであるPishguを提案する。
Pishguはグラフ同型ネットワークを利用して、各フレーム内の被写体間の依存性をキャプチャする。
我々は,複数の公用車両(鳥眼ビュー)と歩行者(鳥眼ビューおよび高角ビュー)の経路予測データセットへのアプローチの適用性を評価する。
論文 参考訳(メタデータ) (2022-10-14T18:48:48Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - An Entropy-guided Reinforced Partial Convolutional Network for Zero-Shot
Learning [77.72330187258498]
エントロピー誘導強化部分畳み込みネットワーク(ERPCNet)を提案する。
ERPCNetは、人間のアノテーションのない意味的関連性と視覚的相関に基づいて、局所性を抽出し、集約する。
グローバルな協力的局所性を動的に発見するだけでなく、ポリシー勾配最適化のためにより高速に収束する。
論文 参考訳(メタデータ) (2021-11-03T11:13:13Z) - LoGG3D-Net: Locally Guided Global Descriptor Learning for 3D Place
Recognition [31.105598103211825]
追加のトレーニング信号(局所的整合性損失)が、リビジョン間で一貫性のある局所的特徴の学習にネットワークを導くことができることを示す。
私たちは、LoGG3D-Netと呼ばれるエンドツーエンドのトレーニング可能なアーキテクチャでアプローチを定式化します。
論文 参考訳(メタデータ) (2021-09-17T03:32:43Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z) - Adversarial Graph Representation Adaptation for Cross-Domain Facial
Expression Recognition [86.25926461936412]
本稿では,グラフ表現の伝播と逆学習を両立させる新しいAdrialversa Graph Representation Adaptation (AGRA) フレームワークを提案する。
提案するAGRAフレームワークは,従来の最先端手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-08-03T13:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。