論文の概要、ライセンス

# (参考訳) 高次元入力のための動きプランナー学習のためのリカレントニューラルネットワークの設計 [全文訳有]

Designing a Recurrent Neural Network to Learn a Motion Planner for High-Dimensional Inputs ( http://arxiv.org/abs/2205.04799v1 )

ライセンス: CC BY-SA 4.0
Johnathan Chiu(参考訳) 自動運転業界における機械学習の利用は、近年の進歩を加速している。 特に、認識と予測スタックにおける大規模なディープラーニングモデルの使用は、非常に成功したが、計画スタックにおける機械学習の使用に関する大きな文献は、いまだに存在しない。 計画スタックにおける現在の技術状態は、しばしば高速な制約付き最適化やルールベースのアプローチに依存します。 これらの2つの技術は、車両が人間のドライバーのそれとよく似た動作をすることを可能にする、多くの基本的な問題に対処できない。 本稿では,この問題にアプローチするための基礎的深層学習システムの設計を試みる。 さらに,本論文の主な目的は,自律走行車(AV)の計画スタックにおける機械学習の潜在的活用を実証し,現在および将来の研究のためのベースラインワークを提供することである。

The use of machine learning in the self-driving industry has boosted a number of recent advancements. In particular, the usage of large deep learning models in the perception and prediction stack have proved quite successful, but there still lacks significant literature on the use of machine learning in the planning stack. The current state of the art in the planning stack often relies on fast constrained optimization or rule-based approaches. Both of these techniques fail to address a significant number of fundamental problems that would allow the vehicle to operate more similarly to that of human drivers. In this paper, we attempt to design a basic deep learning system to approach this problem. Furthermore, the main underlying goal of this paper is to demonstrate the potential uses of machine learning in the planning stack for autonomous vehicles (AV) and provide a baseline work for ongoing and future research.
公開日: Tue, 10 May 2022 11:02:09 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] O R . s c [ ] 略称はR。 sc [ 0.43
1 v 9 9 7 4 0 1 v 9 9 7 4 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Designing a Recurrent Neural Network to Learn a Motion Planner 運動プランナー学習のためのリカレントニューラルネットワークの設計 0.75
for High-Dimensional Inputs Johnathan Chiu 高次元入力用 ジョナサン・チウ 0.53
University of California, Berkeley カリフォルニア大学バークレー校 0.56
May 2022 Abstract The use of machine learning in the self-driving industry has boosted a number of recent advancements. 2022年5月 要約 自動運転業界における機械学習の利用は、最近の多くの進歩を加速している。 0.64
In particular, the usage of large deep learning models in the perception and prediction stack have proved quite successful, but there still lacks significant literature on the use of machine learning in the planning stack. 特に、認識と予測スタックにおける大規模なディープラーニングモデルの使用は、非常に成功したが、計画スタックにおける機械学習の使用に関する大きな文献は、いまだに存在しない。 0.73
The current state-of-the-art in the planning stack often relies on fast constrained optimization or rule-based approaches. 計画スタックの現在の最先端は、しばしば高速制約付き最適化やルールベースのアプローチに依存している。 0.60
Both of these techniques fail to address a significant number of fundamental problems that would allow the vehicle to operate more similarly to that of human drivers. これらの2つの技術は、車両が人間のドライバーのそれとよく似た動作をすることを可能にする、多くの基本的な問題に対処できない。 0.64
In this paper, we attempt to design a basic deep learning system to approach this problem. 本稿では,この問題にアプローチするための基礎的深層学習システムの設計を試みる。 0.88
Furthermore, the main underlying goal of this paper is to demonstrate the potential uses of machine learning in the planning stack for autonomous vehicles (AV) and provide a baseline work for ongoing and future research. さらに,本論文の主な目的は,自律走行車(AV)の計画スタックにおける機械学習の潜在的活用を実証し,現在および将来の研究のためのベースラインワークを提供することである。 0.86
1 Introduction The goal in developing self-driving vehicles is to automate safe and efficient transportation for any passenger. 1 はじめに 自動運転車の開発目標は、乗客の安全かつ効率的な輸送を自動化することだ。
訳抜け防止モード: 1 はじめに 自動運転車の開発目標は 乗客の安全かつ効率的な輸送を自動化する。
0.60
When planning a safe route, a driver needs to consider a number of requirements before making any operation. 安全なルートを計画する場合、運転者は運転する前に多くの要件を考慮する必要がある。 0.71
To name a few of the more important requirements, a driver should avoid collisions, avoid driving recklessly, and follow traffic regulations. より重要な要件をいくつか挙げると、ドライバーは衝突を避け、無謀な運転を避け、交通規制に従うべきである。 0.73
One of the bigger issues is, despite humans being able to learn to drive easily, not all humans drive in what we classify as ”safe” mannerisms. より大きな問題の1つは、人間は簡単に運転を学べるが、すべての人間が「安全」なやり方で運転するわけではないことだ。 0.75
Unsafe mannerisms is often denoted by actions of, including but not limited to, violating speed limits, making spontaneous lane changes in heavy traffic, and disregarding traffic lights and signs. 安全でないマナーリズムはしばしば、速度制限に違反し、交通量で自発的な車線変更を行い、信号機や標識を無視した行動によって示される。 0.73
Given these hazards in driving, motion planning systems in self-driving vehicles should be able to operate under all the aforementioned situations and more. こうした運転の危険を考えると、自動運転車のモーションプランニングシステムは、前述のあらゆる状況下で運用できるはずだ。 0.70
Traditional motion planners for autonomous vehicles are often encoded by a set rules hand-crafted by engineers for safe operation. 自動運転車の従来のモーションプランナーは、エンジニアが安全な操作のために手作りした一連のルールによってコード化されることが多い。 0.51
These traditional methods require a significant number of edge cases to be accounted for and are not truly feasible in tackling the long-tail problem in the self-driving space. これらの従来の手法では、考慮すべきエッジケースのかなりの数が必要であり、自動運転分野での長い尾の問題に対処する上で真に実現不可能である。 0.53
Likewise, other methods such as imitation learning have their own set of limitations that being the reliance on massive amounts of data to be generated by real drivers. 同様に、模倣学習のような他の方法は、実際のドライバが生成する膨大なデータに依存するという独自の制限を持っています。 0.77
This method can also often be costly since many companies are unwilling to share proprietary datasets. この方法は、多くの企業がプロプライエタリなデータセットの共有を望んでいないため、しばしばコストがかかる。 0.56
Finally, reinforcement learning methods require training on very specific maneuvers and relies on a master policy to make decisions on what maneuvers to take. 最後に、強化学習方法は、非常に特定の操作のトレーニングを必要とし、どの操作を行うかを決定するためにマスターポリシーに依存している。 0.52
We turn to deep learning methods to attempt to tackle the problem. 私たちはこの問題に取り組むために深層学習手法に目を向けます。 0.70
Specifically, we use a Recurrent Neural Network (RNN) to handle the controls over a series of states. 具体的には、リカレントニューラルネットワーク(RNN)を使用して、一連の状態を制御します。 0.77
We attempt to simplify the dimensionality of this problem by considering only important input parameters and relying on other parts of the AV stack that have proven to perform well. 本稿では,重要な入力パラメータのみを考慮し,AVスタックの他の部分に依存することで,この問題の次元性を単純化しようとする。 0.78
Specifically, rather than inputting the entire map, we only input information regarding road boundaries and the current lane we are in. 具体的には、地図全体を入力するのではなく、道路の境界や現在の車線に関する情報を入力します。 0.74
Additionally, we encode only some number of the obstacles nearest to us rather than all of them in the scene. さらに、シーンのすべての障害よりも、我々に最も近い障害の数だけをエンコードします。 0.58
We can make these assumptions due to the abilities of current state-of-the-art models in perception, prediction, and mapping. これらの仮定は、知覚、予測、マッピングにおける現在の最先端のモデルの能力によるものである。 0.60
We further justify the safety and validity of this system despite removing numerous details in the scene in the following sections. このシステムの安全性と妥当性をさらに正当化するが、以下のセクションではシーンの多くの詳細を除去する。 0.74
1 1 0.43
英語(論文から抽出)日本語訳スコア
2 Related Works A survey of the ongoing work from leading companies in the self-driving industry suggests that the motion planning problem in self-driving is far from being solved. 関連作品2件 自動運転業界の主要企業による進行中の業務に関する調査は、自動運転における運動計画の問題が解決されるには程遠いことを示唆している。 0.69
Every researcher has their own separate approach to tackling the problem. どの研究者も、この問題に取り組むための独自のアプローチを持っている。 0.58
In this section, we highlight a few related works from both industry and academia. 本項では,産学と産学の関連作品をいくつか紹介する。 0.53
End-to-End Planning Some of the previous literature suggests the use of an end-to-end method. エンドツーエンド計画 以前の文献のいくつかでは、エンドツーエンドメソッドの使用を示唆している。 0.50
In particular, researchers at NVIDIA designed a system that generates a set of controls directly from the provided images taken by onboard camera sensors [1]. 特にNVIDIAの研究者たちは、オンボードカメラセンサーが撮影した画像から直接一連のコントロールを生成するシステムを設計した[1]。 0.78
Majority of the work nowadays have moved away from these ideas with emphasis placed on isolating different parts of the self-driving stack and tackling each component of the stack individually. 現在の作業の大部分は、自動運転スタックのさまざまな部分を分離し、スタックの各コンポーネントを個別に扱うことに重点を置いて、これらのアイデアから遠ざかっている。 0.63
Reinforcement Learning Reinforcement learning (RL) techniques often require an agent to explore an environment and develop optimal policies that enable it to navigate its surroundings. 強化学習強化学習(rl)技術は、しばしばエージェントが環境を探索し、環境をナビゲートするための最適なポリシーを開発する必要がある。 0.76
This requires the use of simulation and, during training, the data may not always reflect the distributions of real-life driving scenarios. これはシミュレーションの使用が必要であり、トレーニング中、データは実際の運転シナリオの分布を常に反映するとは限らない。 0.77
Duan et. al [2], introduces a RL approach. デュアンなど。 al [2] は RL のアプローチを導入する。 0.60
But, again, this work relies on training very specific maneuvers which creates a complex system and may not generalize for edge cases that can appear more often than considered. しかし、この研究は複雑なシステムを作り、考慮以上に頻繁に現れるようなエッジケースを一般化しない、非常に具体的な操作のトレーニングに依存している。 0.64
Imitation Learning In Ashesh et al [5], the basis of the work relies on imitation learning – using human demonstrations to train a model. 模倣学習(Imitation Learning In Ashesh et al [5])では、作業の基礎は模倣学習に依存しています。
訳抜け防止モード: Imitation Learning In Ashesh et al [5], the basis of the work based on mimicion learning – 人間のデモを使ってモデルを訓練します
0.80
This method is promising, but it requires a significant number of training samples from real-world data. この方法は有望だが、実世界のデータからかなりの数のトレーニングサンプルを必要とする。 0.72
This is costly and somewhat infeasible as it may limit the ability to scale for production. これはコストがかかり、生産規模が制限される可能性があるため、実現不可能である。 0.63
In addition, this methodology requires models with large numbers of parameters which could cause issues in situations where quick reaction times are required. さらに、この手法では大量のパラメータを持つモデルが必要であり、迅速な反応時間が必要な状況で問題を引き起こす可能性がある。 0.71
Constrained Optimization Model Predictive Control (MPC) has been a longstanding solution to the motion planning problem. 制約付き最適化モデル予測制御(mpc)は、運動計画問題に対する長年の解決策である。 0.82
The ubiquity and power of current CPUs and GPUs have enabled this method to work well in some situations. 現在のCPUとGPUの汎用性とパワーにより、この手法はいくつかの状況でうまく動作するようになった。 0.64
While this is true, optimizing for a real-time solution could often fail when considering a significant number of input parameters found in real-world driving scenarios. これは事実だが、実世界の運転シナリオに見られるかなりの数の入力パラメータを考慮すると、リアルタイムソリューションの最適化は失敗することが多い。 0.67
Researchers at Baidu attempt to tackle this problem in Fan et al Baiduの研究者たちがFanらでこの問題に挑戦 0.73
[3]. The authors use an idea that combines dynamic programming (DP) and quadratic programming (QP). [3]. 著者らは動的プログラミング(DP)と二次プログラミング(QP)を組み合わせたアイデアを使用している。 0.53
In another of their papers, they use a QP approach again to generate a system that is capable of avoiding collisions during motion planning [7]. 別の論文では、彼らは再びQPアプローチを使用して、モーションプランニング時に衝突を避けることができるシステムを生成する[7]。 0.77
Search Algorithms Traditional search algorithms such as A∗ introduce the idea of using a discrete map and exploring all possible nodes before making a specific move. 探索アルゴリズム a∗ のような従来の探索アルゴリズムは、離散地図を使い、特定の動きをする前に全ての可能なノードを探索するというアイデアを導入している。 0.66
Though the exhaustive search is safest in theory, it is too slow for practical uses. 徹底的な探索は理論的には最も安全であるが、実用には遅すぎる。 0.65
On the other hand, Tesla’s current path planning system uses Monte Carlo Tree Search (MCTS) which has proven to work well in a number of use cases [6]. 一方、Teslaの現在のパスプランニングシステムはMonte Carlo Tree Search(MCTS)を使用しており、多くのユースケース [6] でうまく機能することが証明されている。 0.72
3 Overview of System 3.1 Generalizing a Coordinate Frame 3 システムの概要 3.1 コーディネートフレームの一般化 0.75
We use a continuous 2-Dimensional Cartesian coordinate system to represent the position of the ego vehicle and the world around us. 我々は,エゴ車の位置と周囲の世界を表すために,連続した2次元カルト座標系を用いる。 0.78
The ego vehicle is always considered to be the centerpoint in our coordinate system. ego車両は、常に我々の座標系の中心であると考えられている。 0.73
2 2 0.42
英語(論文から抽出)日本語訳スコア
This implies that all objects in the scene are always shifted about the ego vehicle. これは、シーン内のすべてのオブジェクトが、常にエゴ車の周りに移動していることを意味する。 0.53
This coordinate frame allows the model to better learn and generalize since the initial position is fixed and are features that the model does not need to learn. この座標フレームは、初期位置が固定され、モデルが学習する必要のない特徴であるため、モデルがよりよい学習と一般化を可能にする。 0.75
3.2 Information from Higher-Level Systems 3.2 高レベルシステムからの情報 0.52
Our system relies on information provided from the perception module and a known high-definition road map of the world around us. 本システムでは,認識モジュールから提供された情報と,周囲の世界の高精細道路マップに頼っている。 0.74
This system also assumes that the vehicle’s path planning navigation provides a route to take to navigate from point A to B with high detail. このシステムはまた、車両の経路計画ナビゲーションが、a地点からb地点までの高精細な経路を提供すると仮定している。 0.76
By high detail, we mean that the vehicle’s navigation system provides which particular lane the vehicle should take on any given road. 詳細は、車両のナビゲーションシステムが、車両がどの道路を走るべきかを指定できることを意味している。 0.66
We further rely on the perception module to provide the polyline coordinates for the desired centerline (of the lane provided by the navigation) and road boundaries in question. 我々はさらに知覚モジュールを利用して、所望の中心線(ナビゲーションによって提供される車線)と道路境界に対するポリライン座標を提供する。 0.81
Finally, we assume that all information of extraneous obstacles/objects in our local vicinity are provided to us. 最後に, 周辺地域の障害物・物体の全ての情報が得られていると仮定する。 0.63
4 Framework 4.1 Model Input 4 フレームワーク 4.1モデル入力 0.73
The model should understand how to react and create a navigable path given any current state of the vehicle. モデルは、車両の現在の状態に応じて、どう反応するかを理解し、ナビゲート可能なパスを作成する必要がある。 0.62
The state input to the model is a set of features containing its inital velocity, initial heading, and desired velocity. モデルに入力された状態は、その慣性的速度、初期方向、所望の速度を含む一連の特徴である。 0.71
This is defined as a vector Xinput = [v0, h0, vd]. これはベクトル Xinput = [v0, h0, vd] として定義される。 0.84
As a reminder, the initial position, x, y-coordinates, can always be omitted since we shift the coordinate grid to center our vehicle. リマインダーとして、初期位置 x, y-座標は、座標格子を車の中心にシフトするため、常に省略することができる。 0.72
v0 and h0 are the initial velocity and initial heading, respectively. v0 と h0 はそれぞれ初期速度と初期方向である。 0.83
vd is the desired velocity which we assume to be determined by a blackbox system that determines the safest driving speed using the speed limit and road condition(s) at the time of operation. vdは,運転時の速度制限と道路条件を用いて,最も安全な走行速度を決定するブラックボックスシステムによって決定される所望の速度である。 0.79
We consider two additional pieces of information from the surrounding environment – road lanes and 周辺環境からの2つの追加情報 - 道路車線と道路車線 - について検討する。 0.59
objects/obstacles. object/obstacles。 0.32
We describe these in detail in the following sections. 4.1.1 Polyline Inputs 本項で詳述する。 4.1.1ポリリン入力 0.33
Our system only considers three pieces of road structure information: the centerline for the navigation system’s desired lane to stay in, the road boundary on the left, and the road boundary on the right. 本システムでは, 道路構造情報として, 航法システムの所望車線の中心線, 左側の道路境界, 右側の道路境界の3点についてのみ検討する。 0.73
We represent each piece of road/lane information as a polyline. 我々は各道路/車線情報をポリラインとして表現する。 0.72
Any polyline P is sequence of nodes. 任意のポリリン P はノードの列である。 0.64
In our vector representation, P is simply [p1, p2, ..., pn] where pi is a x, y-coordinate pair (xi, yi). 私たちのベクトル表現では、P は単に [p1, p2, ..., pn] であり、pi は x, y-座標対 (xi, yi) である。 0.81
The number of polyline coordinates, n, can be chosen dependent on how granular the input of the road should be. ポリライン座標 n の数は、道路の入力の粒度に依存する。 0.41
As an example of our lane information, if we consider a 3-lane road and our navigation system suggests the vehicle to take the rightmost lane, the provided information is the left and right road boundaries and the centerline for the rightmost lane. 私たちの車線情報の一例として、3車線道路とナビゲーションシステムを考えると、車両が最右車線を取ることを提案すれば、提供された情報は、左右の道路境界と最右の車線の中心線である。 0.77
The left lane and center lane information are not included in the system. 左車線情報及び中央車線情報はシステムには含まれていない。 0.80
Like mentioned in section 3.2, we rely on the navigation system to provide the motion planner with a specific centerline to follow. セクション3.2で述べたように、我々はナビゲーションシステムを利用して、運動プランナーに従うべき特定の中心線を提供する。 0.70
We designed our motion planner in this specific way to minimize the amount of information we need to consider and still operate under safety constraints. 私たちはこの特定の方法でモーションプランナーを設計し、考慮すべき情報の量を最小限に抑え、安全上の制約の下で運用します。
訳抜け防止モード: 我々はこの特定の方法で運動プランナーを設計した 考慮すべき情報の量を最小限に抑え 安全上の制約の下で活動します
0.76
We further elaborate on this design methodology in section 6 and this specific example is illustrated in Figure 1. 第6節でこの設計手法をさらに詳しく説明し、この具体例を図1に示します。 0.73
4.1.2 Object Representation We represent the objects around us by encoding the positions of the k-nearest objects, O, around us. 4.1.2 オブジェクト表現 k-nearest オブジェクトの位置 O を符号化することで、周りのオブジェクトを表現する。 0.82
We choose k arbitrarily for testing but, in reality, this value should be large enough to encapsulate the number 私たちはテストのために k を任意に選ぶが、実際には、この値は数をカプセル化するのに十分な大きさであるべきである。
訳抜け防止モード: 私たちはテストのためにkを任意に選ぶ しかし実際 この値は 数字をカプセル化できるくらいの大きさで
0.71
3 3 0.42
英語(論文から抽出)日本語訳スコア
Figure 1: (Top) Complete road information. 図1: (トップ) 完全な道路情報。 0.78
(Bottom) Model input. (ボトム) モデル入力。 0.73
of obstacles in any true driving scenario. 真の運転シナリオにおける障害です 0.68
The objects surrounding the ego vehicle are represented by a vector of x, y-coordinates pairs identical to the polyline representation described above. ego 車両を囲む物体は、上述のポリライン表現と同一の x, y-座標対のベクトルによって表現される。 0.80
In sparse driving conditions, such as at night, the vehicle may not encounter k objects and does not need a vector of size k for the surrounding objects/obstacles. 夜間などの粗い運転条件では、車両は k 個の物体に遭遇せず、周囲の物体や障害物に対して k サイズのベクトルを必要としない。 0.71
In such situations, all leftover slots in the vector are filled with a (0, 0) pair. そのような状況では、ベクトルのすべての余剰スロットは (0, 0) 対で満たされる。 0.79
With this representation of objects, we can only input static features. このオブジェクトの表現では、静的な機能しか入力できません。 0.66
We suggest that all objects be encoded with motion vectors dependent on the output from the motion prediction stack. 動き予測スタックからの出力に依存する動きベクトルで全ての物体を符号化することを提案する。 0.83
We consider dynamic obstacles to be out of scope for this project and experiment with only static objects. 我々は動的障害をこのプロジェクトの範囲外と考え、静的なオブジェクトのみで実験します。 0.82
4.2 Model Architecture 4.2 モデルアーキテクチャ 0.71
Our system comprises of three separate networks. システムは3つの別々のネットワークから成り立っている。 0.60
The first two of the networks are multi-layer perceptrons (MLP) used for embedding the road information and the object instances. 最初の2つのネットワークは、道路情報とオブジェクトインスタンスを埋め込むために使用される多層パーセプトロン(MLP)である。 0.77
The third network is a RNN which incorporates the embedded polylines (road information) and obstacles to plan a path for the vehicle. 第3のネットワークはRNNであり、組み込まれたポリライン(道路情報)と障害物を組み込んで車両の経路を計画する。 0.81
The planner should compute a series of controls – acceleration and steering – for some number of steps into the future, T . プランナーは、未来へのいくつかのステップTのために、一連のコントロール(アクセラレーションとステアリング)を計算する必要がある。 0.64
Our output is represented as a sequence of controls: Ycontrol = [(a1, ˙θ1), (a2, ˙θ2), ..., (aT , ˙θT )]. 出力は制御の列として表現される: ycontrol = [(a1, sθ1), (a2, sθ2), ..., (at , sθt )]。 0.78
We also have the model output values between [-1, 1] by applying Tanh activation function after the final layer. 最終層の後にtanhアクティベーション関数を適用することで、[-1, 1]間のモデル出力値も取得する。 0.76
This allows us to explicitly define the acceleration and steering constraints outside of the model by multiplying the control value by its constraint value. これにより、制御値をその制約値に乗じることで、モデル外のアクセラレーションとステアリングの制約を明確に定義することができます。 0.70
For e g , if the vehicle has an acceleration constraint of 3m/s2 and a turning constraint of 40◦, we multiply each ai by 3 and each ˙θi by 40 to impose the constraints. 例えば、車両の加速度制約が 3m/s2 で回転制限が 40 である場合、各 ai を 3 で乗算し、各 sθi を 40 で乗算してその制約を課す。 0.73
4 4 0.42
英語(論文から抽出)日本語訳スコア
4.3 Loss Function We define our loss to consider a few factors to optimize over. 4.3 損失機能 私たちは損失を最適化するいくつかの要因を検討するために定義します。 0.66
The motion planner should avoid all objects surrounding the vehicle, drive at the speed of the desired velocity, avoid the road boundaries, and follow the navigation system’s centerline (the vehicle’s guiding path to get to a final destination). 移動プランナーは、車両を取り巻くすべての物体を回避し、所望の速度の速度で運転し、道路の境界を回避し、ナビゲーションシステムの中心線(最終目的地に到達するための車両の誘導経路)に従うべきである。 0.77
We incorporate the direction/heading of the centerline to ensure that the vehicle does not drive in the wrong direction. センターラインの方向/方向を組み込んで、車両が間違った方向に動かないようにします。 0.69
Additionally, the loss term at time t is scaled by t. さらに、時間tにおける損失項をtでスケールする。 0.69
We do this to allow the model to slowly converge to a specific solution and allow it to implicitly explore ”backtracking” options. これにより、モデルがゆっくりと特定のソリューションに収束し、暗黙的に"バックトラック"オプションを探索できるようにします。 0.70
Essentially, our objective function boils down to: 基本的には、目的関数は次のようになる。 0.50
(1) (2) (4) (1) (2) (4) 0.43
Lplanner = Lplanner = 0.42
t(Lmaneuver(t) + Lsaf ety(t)) t(Lmaneuver(t) + Lsaf ety(t)) 0.42
where and t=1 どこに そして t=1 である。 0.57
Lmaneuver(t) = αEcte(t) + βEhe(t) + γEve(t) Lmaneuver(t) = αEcte(t) + βEhe(t) + γEve(t) 0.49
T(cid:88) Lsaf ety = µEcollision(t) + ρEboundary(t). T(第88回) lsaf ety = μecollision(t) + ρeboundary(t) である。 0.70
(3) Ecte is a function that describes the vehicles shortest distance from the centerline at time t, Ehe is a function that returns the heading error between the vehicle’s heading and the heading of the road at time t, and Eve is the velocity error at time t. (3)Ecteは、時刻tにおける車の中心線から最短距離を記述する関数であり、Eheは、時刻tにおける車両の方向と道路の方向の間の方向誤差を返す関数であり、Eveは時刻tにおける速度誤差である。 0.76
Additionally, Ecollision returns the summed distance from the ego to all k-nearest neighbors at time t. さらに、ecollision は時間 t において ego からすべての k-nearest 近傍への合計距離を返す。 0.66
The formula describing Ecollision is Ecollision(t) = エコリシオンを記述する式は ecollision(t) = 0.73
(cid:88) e5−od (cid:88) e5-od 0.29
o∈O where od is the distance between the ego and object o at time t. オノオ ここで od は、時刻 t における ego と対象 o の間の距離である。 0.52
We use a shifted and scaled exponential function to imply that a small distance to objects should be classified as ”reckless” driving and result in a larger loss. 移動およびスケールされた指数関数を使用して、オブジェクトへの小さな距離を“無謀”運転に分類し、結果としてより大きな損失を生じさせるべきであることを示唆する。
訳抜け防止モード: 変化して拡大した指数関数を使って オブジェクトへの小さな距離は、”reckless ” 運転と分類され、結果としてより大きな損失を生じさせる。
0.76
The shifting and scaling coefficients were determined empirically. シフト係数とスケーリング係数は経験的に決定された。 0.61
Another thing to address is that we do not consider the distance of any objects with position (0, 0) (the same as the ego) since we mentioned above these are just placeholders in the vector and not truly objects. もうひとつ対処すべき点は、上述したようにベクトルのプレースホルダーであって真の対象ではないので、位置 (0, 0) を持つ任意のオブジェクトの距離 (ego と同じ) を考慮しないということです。 0.79
In addition, Ecte is defined as such: また、Ecteは次のように定義されている。 0.53
Ecte(t) = min Ecte(t) = min 0.42
pi,pi+1∈P dist((xt, yt), (midpoint(pi, pi+1)) pi,pi+1 linkedinp dist((xt, yt), (midpoint(pi, pi+1)) 0.47
(5) where dist and midpoint are the formulas to compute the Euclidean distance between two points and finding the midpoint between two points, respectively. (5) dist と midpoint は、それぞれ2点間のユークリッド距離を計算し、2点間の中間点を求める公式である。 0.59
In our implementation, we compute this by looping through each consecutive pair of polyline points while calculating the distance of the vehicle from the segment’s midpoint and returning the smallest of distances between the vehicle position. 実装では、セグメントの中間点から車両の距離を計算し、車両位置間の最小距離を計算しながら、各一対のポリライン点をループしてこれを計算する。
訳抜け防止モード: 私たちの実装では、これを計算します。 連続した一対のポリリン点をループする セグメントの中間点から車両の距離を計算しながら 車両の位置の間の距離は最小です
0.81
Similarly, Ehe uses the two points, pi and pi+1 determined by Ecte to compute the relative heading of the road. 同様に、ehe は ecte によって決定される2つの点 pi と pi+1 を用いて、道路の相対方向を計算する。 0.60
5 Training During training, the models are trained in unsupervised manner. 5つの訓練 訓練中、モデルは教師なしの方法で訓練される。 0.62
We use Adam optimizer to train the model’s weights with a fixed learning rate of .00001. adam optimizerを使用して、モデルの重みを.00001という一定の学習率でトレーニングしています。 0.67
Additionally, we set the parameters of the loss function as follows: α = 15, β = 9, γ = 11, µ = 100, ρ = 2α. さらに、損失関数のパラメータを次のように設定する: α = 15, β = 9, γ = 11, μ = 100, ρ = 2α。 0.83
Lastly, we train the model over 500 epochs. 最後に、500エポック以上のモデルをトレーニングします。 0.55
5 5 0.42
英語(論文から抽出)日本語訳スコア
Using unsupervised methods allow us to generate massive amounts of input data easily. 教師なしの手法を用いることで、大量の入力データを容易に生成できる。 0.60
We randomly synthesize a large number of initial states, road maps, and objects to train the model. 我々は多数の初期状態、道路地図、オブジェクトをランダムに合成してモデルを訓練する。 0.74
We observed that the model was able to determine a satisfactory path using the provided objective function described in section 4.3. また, 提案した目的関数をセクション4.3で記述し, 満足な経路を決定できることを確認した。 0.73
We also suggest that in practice, the model should be trained with some number of supervised samples. また、実際には、いくつかの教師付きサンプルを使ってモデルをトレーニングすべきだと提案する。
訳抜け防止モード: 私たちはまた 実際には、モデルはいくつかの教師付きサンプルで訓練されるべきです。
0.65
We believe that using semi-supervised paradigms will allow the model to converge faster as it aids in finding satisfactory local minimums. 半教師付きパラダイムを使用することで、十分なローカル最小値を見つけるのに役立つため、モデルをより早く収束させることができると考えています。
訳抜け防止モード: 半教師付きパラダイムを使うことは モデルがより早く収束し、十分な局所的な最小値を見つけるのに役立つ。
0.54
Additionally, semi-supervised learning enables the model to learn directly from examples of human driving and attempt to mimic the actions and ”thought processes” behind deciding which path to make while driving. さらに、半教師付き学習により、モデルは人間の運転例から直接学習し、運転中にどの道を進むかを決める前に、行動と“思考プロセス”を模倣しようとすることができる。 0.69
To better understand the model’s decisions during training, we also used the model solely as an optimizer over a single set of states. トレーニング中のモデルの判断をよりよく理解するために、私たちはモデルのみを一つの状態に対して最適化するものとして使用しました。 0.65
We found that the model tended to converge quickly, within 300 to 400 iterations, even in complex situations. 複雑な状況でも,300~400回のイテレーションでモデルが急速に収束する傾向にあったのです。 0.77
Additionally, we observed that the model made interesting decisions in unusual scenarios. さらに、このモデルは異常なシナリオで興味深い決定をした。 0.65
For instance, when we pointed the vehicle’s heading almost orthogonal to the road’s heading and near the boundary line, it learned to first reverse towards the centerline to adjust its heading before proceeding to move forward. 例えば、車両の方向を道路の方向とほぼ直交し、境界線付近に向けると、まず中央線に逆向きに向きを変えて前進する前に方向を調整することを学びました。 0.63
We found this observation most interesting given that our loss function accounts for velocity error. 我々の損失関数が速度誤差の原因であることを考えると、この観測は最も興味深い。 0.65
The model was able to foresee that the loss becomes minimized with this action first. このモデルは、最初にこのアクションで損失が最小になることを予測できた。 0.76
We believe this is as a result of scaling each term at time t by the value of t. これはtの値によって時間tで各項をスケーリングした結果であると考えています。 0.66
6 Design Decision Making Now that we have introduced our loss function in 4.3, we continue our discussion of incorporating only a single centerline and disregarding other lane information. 6 設計決定 損失関数が4.3に導入された今、我々は単一の中心線のみを取り入れ、他の車線情報を無視する議論を続けている。 0.67
The main part of this design methodology was to simplify the inputs to the model while enabling us to completely remove rule-based operations for the vehicle. この設計手法の主な目的は、車両のルールベースの操作を完全に取り除きながら、モデルへの入力を単純化することであった。 0.79
The motion planner should be able to independently solve all scenarios given enough training data. 十分なトレーニングデータがあれば、モーションプランナーは、すべてのシナリオを独立して解決できるはずです。
訳抜け防止モード: モーションプランナーは 十分なトレーニングデータに基づいて、すべてのシナリオを独立して解決する。
0.65
One example would be passing a slow vehicle ahead. 例の1つは、遅い車両を先に渡すことだ。 0.61
In many current motion planners, there is a large reliance on a specific rule that determines when to pass a vehicle by moving into a different lane. 現在の多くのモーションプランナーでは、異なる車線に移動することで車両を通過させるタイミングを決定する特定のルールに大きく依存している。 0.74
In our design, the vehicle will automatically trigger a safe lane change if there is enough space on the left or right of the vehicle since the desired velocity is not achieved. 私たちの設計では、所望の速度が達成されないため、車両の左右に十分なスペースがある場合、車両は自動的に安全な車線変更をトリガーします。 0.69
The vehicle passes around the slow vehicle, being sure to avoid other impediments, and returns back to its original lane to minimize the distance to the centerline which is described in the loss function. 車両は減速した車両の周りを通過し、他の障害を避けることができ、損失関数で記述される中心線までの距離を最小にするために元の車線に戻る。 0.77
Another example would be automatically changing lanes from the rightmost lane to left lane in preparation for a left turn. もう1つの例は、左折に備えて、右端の車線から左端の車線に自動的に変更することである。 0.64
In this situation, the navigation system will relay information of a new centerline to the model, the left lane’s centerline. この状況では、ナビゲーションシステムは、左車線の中心線であるモデルに新しい中心線の情報を中継する。 0.73
Rather than explicitly telling the vehicle to make two consecutive lane changes from a rule-based planner, our system should determine when and how to make a safe lane changes to minimize the vehicle’s distance to the provided centerline. ルールベースのプランナーから2つの連続した車線変更を明示的に指示するのではなく、安全車線変更をいつ、どのように行うかを決めて、車両から提供されたセンターラインまでの距離を最小化する。 0.69
Making the left turn works similarly – we map a centerline of the turn lane and the the vehicle should make a turn that minimizes the distance between itself and the centerline of the turn lane. 左旋回も同じように動作する ― ターンレーンの中心線をマッピングし、車両はターンレーンとターンレーンの中心線の間の距離を最小化するターンを作らなければならない。 0.76
A third interesting example that justifies our design would be how the vehicle should react at a red light. デザインを正当化する3つ目の興味深い例は、車両が赤信号でどのように反応するかです。 0.70
In rule-based motion planners, the vehicle is told to have a hard stop at a certain point. ルールに基づく運動プランナーでは、車両は特定の地点でハードストップがあると伝えられる。 0.69
In our design, we set the desired velocity to 0 m/s and a red light can be denoted by a row of static ”obstacles” before the intersection. 我々の設計では、所望の速度を0 m/sに設定し、赤信号は交差点の前に静的な“オブスタクル”の列で表すことができる。 0.73
The model will slow down and not cross the ”obstacles” since there is no path around them the vehicle can safely take. このモデルは減速し、車の周りには安全に乗れる経路がないため、”オブスタクルス”を横切ることはない。 0.69
This is another example of why our model can be more efficient than rule-based decision where engineers need not handcraft every rule for all edge cases. これは、エンジニアがすべてのエッジケースに対してすべてのルールを手作りする必要のないルールベースの決定よりも、私たちのモデルの方が効率的である理由の1つです。
訳抜け防止モード: これは、私たちのモデルがルールよりも効率的である理由の別の例です。 すべてのエッジケースに あらゆるルールを手作りする必要はない
0.66
6 6 0.43
英語(論文から抽出)日本語訳スコア
7 Results We perform a small case study by simulating a few complex scenarios (including some of the aforementioned scenarios in the previous section) and our model’s outputted trajectories in response to the environment it is placed in. 結果7 我々は、いくつかの複雑なシナリオ(前節のいくつかのシナリオを含む)とモデルが配置されている環境に応じて出力された軌道をシミュレートすることで、小さなケーススタディを実行します。 0.59
(a) Ability to follow centerline. (a)センターラインに従う能力。 0.77
Initial Velocity: 5m/s, Initial Heading: 0◦, Desired Velocity: 5m/s 初期速度: 5m/s, 初期方向: 0>, 所望の速度: 5m/s 0.69
(b) Changing lanes from left to right. (b)左から右への車線変更。 0.75
Initial Velocity: 3m/s, Initial Heading: 40◦, Desired Velocity: 8m/s 初期速度:3m/s、初期ヘッド:40s、下降速度:8m/s 0.63
(c) Moving around object directly ahead. (c) 直接、オブジェクトを移動します。 0.77
Initial Velocity: 2m/s, Initial Heading: 0◦, Desired Velocity: 7m/s 初期速度: 2m/s, 初期方向: 0>, 所望の速度: 7m/s 0.68
(d) Changing lanes while avoiding object. (d)物体を避けながら車線を変えること。 0.67
Initial Velocity: 5m/s, Initial Heading: 0◦, Desired Velocity: 10m/s 初速:5m/s、初頭:0s、下降速度:10m/s 0.65
(e) Another lane change example. (e)別の車線変更例。 0.78
10m/s, Initial Heading: 0◦, Desired Velocity: 3m/s 10m/s, 初期方向: 0>, 所望の速度: 3m/s 0.66
Initial Velocity: (f) Avoiding objects while moving from right to left. 初期速度: (f)右から左へ移動しながら物体を避けること。 0.77
Initial Velocity: 10m/s, Initial Heading: 0◦, Desired Velocity: 10m/s 初期速度:10m/s、初期速度:0/s、所望速度:10m/s 0.62
(g) Reversing to correct heading before proceeding. (g)進行前に方向を正すように反転する。 0.64
Initial Velocity: 0m/s, Initial Heading: 0◦, Desired Velocity: 7m/s 初期速度: 0m/s, 初期方向: 0u, 所望速度: 7m/s 0.68
(h) Stopping before a ”red light”. (h)「赤信号」の前に止まること。 0.68
6m/s, Initial Heading: 0◦, Desired Velocity: 0m/s 6m/s, 初期方向: 0>, 所望の速度: 0m/s 0.66
Initial Velocity: 7 初期速度: 7 0.60
英語(論文から抽出)日本語訳スコア
8 Conclusion We introduce a deep learning architecture and loss function for self-driving motion planners. 8 結論 自律走行計画立案者のためのディープラーニングアーキテクチャと損失関数を導入する。 0.66
The philosophy behind our design is to model the path planner to make decisions in similar ways that a human driver would. 私たちの設計の背後にある哲学は、人間のドライバーと同じように、パスプランナーをモデル化して意思決定を行うことです。
訳抜け防止モード: デザインの背後にある哲学は パスプランナーをモデル化し、人間のドライバーと同じような方法で決定を下す。
0.79
Our model demonstrates strong preliminary results due to its ability to handle a variety of driving situations/environme nts. 本モデルでは,様々な運転状況や環境に対処できるため,予備的な結果が得られた。
訳抜け防止モード: 我々のモデルは、その能力によって強い予備結果を示す 様々な運転状況や環境に対処します
0.76
Additionally, our model is able to learn to maneuver in situations that are often dictated by rule-based algorithms suggesting that rule-based models can be eliminated fully. さらに,ルールベースモデルを完全に排除できることを示すルールベースアルゴリズムによって引き起こされる状況下での操作を学習することができる。 0.79
Some next steps in further developing our work would be to combine our model with other methods such as MCTS. さらなる開発における次のステップは、私たちのモデルをmctsのような他のメソッドと組み合わせることです。 0.71
This idea uses our deep learning model to guide an initial path and capitalize on the backtracking ideas in MCTS to explore the search space. このアイデアは、私たちのディープラーニングモデルを使って初期経路を案内し、mctsのバックトラッキングアイデアを利用して検索空間を探索します。 0.59
Likewise, the initial trajectories outputted from our model can be fed into other refining algorithms like constrained optimizers. 同様に、モデルから出力された初期軌道は、制約付きオプティマイザのような他の精製アルゴリズムに供給することができます。 0.53
Finally, in the previous sections we hinted at using motion prediction vectors to introduce dynamic scenarios for our model. 最後に,前節では,動き予測ベクトルを用いてモデルに動的シナリオを導入することを示唆した。 0.87
This more accurately encapsulates real-world driving. これは現実世界の運転をより正確にカプセル化する。 0.50
We also observed in Gao et. gao etでも観察した。 0.55
al [4] the use of a graph neural network, VectorNet, in motion prediction. al[4] 動き予測におけるグラフニューラルネットワークであるVectorNetの使用。 0.75
We suggest concatenating our model with VectorNet to both predict and plan accordingly to an environment with moving vehicles, pedestrians, etc. 移動車や歩行者などの環境に応じた予測と計画を行うため,私たちのモデルをVectorNetと統合することを提案する。 0.77
References [1] Mariusz Bojarski et al Explaining How a Deep Neural Network Trained with End-to-End Learning Steers 参考文献 [1] mariusz bojarskiらによるエンドツーエンド学習ステアによるディープニューラルネットワークの学習 0.66
a Car. 2017. doi: 10.48550/ARXIV.1704. 07911. 車だ 2017. doi: 10.48550/arxiv.1704. 07911。 0.45
url: https://arxiv.org/ab s/1704.07911. https://arxiv.org/ab s/1704.07911。 0.45
[2] Jingliang Duan et al “Hierarchical reinforcement learning for self-driving decision-making without reliance on labelled driving data”. [2] Jingliang Duan et al “ラベル付き運転データに頼ることなく、自動運転による意思決定のための階層的強化学習”。 0.68
In: IET Intelligent Transport Systems 14.5 (2020), pp. 297–305. in: ietintelligent transport systems 14.5 (2020), pp. 297–305。 0.82
doi: 10.1049/iet-its.2019 .0317. doi: 10.1049/iet-its.2019 .0317。 0.38
url: https://doi.org/10.1 049%2Fiet-its.2019.0 317. url: https://doi.org/10.1 049%2fiet-its.2019.0 317。 0.41
[3] Haoyang Fan et al Baidu Apollo EM Motion Planner. [3]Haoyang Fan et al Baidu Apollo EM Motion Planner。 0.40
2018. doi: 10.48550/ARXIV.1807. 08048. 2018. doi: 10.48550/arxiv.1807. 08048。 0.42
url: https://arxiv.org/ab s/1807.08048. url: https://arxiv.org/ab s/1807.08048 0.31
[4] Jiyang Gao et al VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized Representation. [4] Jiyang Gao et al VectorNet: ベクトル表現からHDマップとエージェントダイナミクスをエンコードする。 0.86
2020. doi: 10.48550/ARXIV.2005. 04259. 2020. doi: 10.48550/arxiv.2005. 04259。 0.43
url: https://arxiv.org/ab s/2005.04259. https://arxiv.org/ab s/2005.04259。 0.45
[5] Ashesh Jain et al Autonomy 2.0: Why is self-driving always 5 years away? 5] Ashesh Jain et al Autonomy 2.0: なぜ自動運転は常に5年先なのか? 0.81
2021. doi: 10.48550/ARXIV. 2021. doi: 10.48550/arxiv。 0.36
2107.08142. 2107.08142. 0.35
url: https://arxiv.org/ab s/2107.08142. url: https://arxiv.org/ab s/2107.08142。 0.23
[6] Jason Zhang. 6] ジェイソン・チャン 0.50
Deep understanding tesla FSD part 3: Planning & Control. 深い理解 tesla FSD 第3部: 計画と制御。 0.81
2021. url: https://saneryee- 2021. url: https://saneryee- 0.41
studio.medium.com/de ep-understanding-tes la-fsd-part-3-planni ng-control-9a25cc6d0 4f0. studio.medium.com/de ep-understanding-tes la-fsd-part-3-planni ng-control-9a25cc6d0 4f0 0.05
[7] Yajia Zhang et al “Optimal Vehicle Path Planning Using Quadratic Optimization for Baidu Apollo Open Platform”. [7]Yajia Zhang氏らによる“Baidu Apollo Open Platformの二次最適化を用いた最適車両経路計画”。 0.78
In: 2020 IEEE Intelligent Vehicles Symposium (IV). IEEE Intelligent Vehicles Symposium (IV) - 2020年開催。 0.77
2020, pp. 978–984. 2020年、p.978-984。 0.74
doi: 10.1109/ IV47402.2020.9304787 . doi 10.1109/iv47402.2020 .9304787 0.24
8 8 0.42
                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。