論文の概要: Modeling human road crossing decisions as reward maximization with
visual perception limitations
- arxiv url: http://arxiv.org/abs/2301.11737v1
- Date: Fri, 27 Jan 2023 14:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 15:29:34.622598
- Title: Modeling human road crossing decisions as reward maximization with
visual perception limitations
- Title(参考訳): 視覚知覚制限による報酬最大化としての道路横断決定のモデル化
- Authors: Yueyang Wang, Aravinda Ramakrishnan Srinivasan, Jussi P.P. Jokinen,
Antti Oulasvirta, Gustav Markkula
- Abstract要約: 我々は,計算的合理性に基づく歩行者横断決定のモデルを開発する。
提案した認知-RLモデルは、ギャップ受容と交差開始時間の人間的なパターンをキャプチャする。
以上の結果から,これは人間の知覚的限界に対する合理的適応である可能性が示唆された。
- 参考スコア(独自算出の注目度): 23.561752465516047
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the interaction between different road users is critical for
road safety and automated vehicles (AVs). Existing mathematical models on this
topic have been proposed based mostly on either cognitive or machine learning
(ML) approaches. However, current cognitive models are incapable of simulating
road user trajectories in general scenarios, and ML models lack a focus on the
mechanisms generating the behavior and take a high-level perspective which can
cause failures to capture important human-like behaviors. Here, we develop a
model of human pedestrian crossing decisions based on computational
rationality, an approach using deep reinforcement learning (RL) to learn
boundedly optimal behavior policies given human constraints, in our case a
model of the limited human visual system. We show that the proposed combined
cognitive-RL model captures human-like patterns of gap acceptance and crossing
initiation time. Interestingly, our model's decisions are sensitive to not only
the time gap, but also the speed of the approaching vehicle, something which
has been described as a "bias" in human gap acceptance behavior. However, our
results suggest that this is instead a rational adaption to human perceptual
limitations. Moreover, we demonstrate an approach to accounting for individual
differences in computational rationality models, by conditioning the RL policy
on the parameters of the human constraints. Our results demonstrate the
feasibility of generating more human-like road user behavior by combining RL
with cognitive models.
- Abstract(参考訳): 異なる道路利用者間の相互作用を理解することは、道路安全と自動走行車(AV)にとって重要である。
このトピックに関する既存の数学的モデルは、主に認知または機械学習(ML)アプローチに基づいて提案されている。
しかし、現在の認知モデルでは一般的なシナリオでは道路利用者の軌跡をシミュレートできないため、mlモデルは行動を生成するメカニズムに焦点を合わせず、障害が重要な人間のような行動を捉える可能性があるハイレベルな視点を取る。
本稿では,人間に制約のある行動方針を境界的に学習するために,深層強化学習(rl)を用いたアプローチである計算的合理性に基づく歩行者横断決定のモデルを開発した。
提案するコグニティブ・rlモデルでは,ギャップ受容と交差開始時間の人間様パターンを捉えている。
興味深いことに、我々のモデルの決定は、時間的ギャップだけでなく、接近する車両の速度にも敏感である。
しかし,本研究の結果から,人間の知覚的限界に対する合理的適応が示唆された。
さらに,計算的合理性モデルにおける個人差の計算手法として,人間の制約のパラメータにrlポリシーを条件付ける手法を提案する。
以上の結果から,RLと認知モデルを組み合わせることで,より人間的な道路利用者行動が実現可能であることを示す。
関連論文リスト
- Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Pedestrian crossing decisions can be explained by bounded optimal
decision-making under noisy visual perception [27.33595198576784]
交差決定は、人間の認知的限界から生じる最適性に縛られ、有界に最適であると仮定される。
我々は、機械的にノイズの多い人間の視覚知覚をモデル化し、交差する際の報酬を仮定するが、強化学習を用いて境界付き最適行動ポリシーを学習する。
論文 参考訳(メタデータ) (2024-02-06T20:13:34Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - Resolving uncertainty on the fly: Modeling adaptive driving behavior as
active inference [6.935068505791817]
適応運転行動の既存の交通心理学モデルは、計算厳密さを欠いているか、特定のシナリオや行動現象にのみ対応していない。
本稿では,脳神経科学を起源とする行動モデルである,能動推論に基づくモデルを提案する。
予測自由エネルギー最小化の単一原理から人間のような適応運転行動が生じることを示す。
論文 参考訳(メタデータ) (2023-11-10T22:40:41Z) - AlignDiff: Aligning Diverse Human Preferences via Behavior-Customisable
Diffusion Model [69.12623428463573]
AlignDiffは、人間の好みを定量化し、抽象性をカバーし、拡散計画をガイドする新しいフレームワークである。
ユーザがカスタマイズした動作と正確に一致し、効率的に切り替えることができます。
選好マッチング,スイッチング,カバーにおいて,他のベースラインに比べて優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T13:53:08Z) - Using Models Based on Cognitive Theory to Predict Human Behavior in
Traffic: A Case Study [4.705182901389292]
本研究では,ギャップ受容シナリオにおける人間の行動予測のための認知的確証のある新しいモデルの有用性について検討する。
我々は、このモデルが確立されたデータ駆動予測モデルと競合したり、さらに優れていることを示す。
論文 参考訳(メタデータ) (2023-05-24T14:27:00Z) - Beyond RMSE: Do machine-learned models of road user interaction produce
human-like behavior? [12.378231329297137]
自然主義高速道路運転データセットにおける3つの異なる行動現象の存在を示すために,定量的な指標を導入する。
同じ測定値を用いて3つの機械学習モデルの挙動を解析する。
論文 参考訳(メタデータ) (2022-06-22T14:04:39Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Solution Concepts in Hierarchical Games under Bounded Rationality with Applications to Autonomous Driving [8.500525426182115]
階層型ゲームを用いた運転行動のゲーム理論モデルを作成する。
本研究では,自然主義データに適合するモデルと,その予測能力に基づいて行動モデルを評価する。
以上の結果から, 運転行動モデルとして評価された動作モデルのうち, レベル0の振る舞いをルールフォローとしてモデル化したQuantal Level-kモデルの適応として, 運転行動のモデル化が, 自然主義的な運転行動に最も適していることが示唆された。
論文 参考訳(メタデータ) (2020-09-21T17:13:50Z) - Weak Human Preference Supervision For Deep Reinforcement Learning [48.03929962249475]
人間の好みによる現在の報酬学習は、報酬関数にアクセスせずに複雑な強化学習(RL)タスクを解決するために使用できる。
そこで我々は,人間の嗜好スケーリングモデルを開発した,弱い人間の嗜好監視フレームワークを提案する。
提案手法では,環境との相互作用の 0.01% 未満の人的フィードバックしか必要としない。
論文 参考訳(メタデータ) (2020-07-25T10:37:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。