論文の概要: PathletRL++: Optimizing Trajectory Pathlet Extraction and Dictionary Formation via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2412.03715v1
- Date: Wed, 04 Dec 2024 21:09:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:42:09.477744
- Title: PathletRL++: Optimizing Trajectory Pathlet Extraction and Dictionary Formation via Reinforcement Learning
- Title(参考訳): PathletRL++:強化学習による軌道パスレット抽出と辞書生成の最適化
- Authors: Gian Alix, Arian Haghparast, Manos Papagelis,
- Abstract要約: トラジェクトリパスレット辞書は、モビリティ関連のアプリケーションを支援するために不可欠である。
本稿では,基本パスレットを段階的にマージして辞書を構築するボトムアップ戦略を提案する。
本研究では,Deep Q-Networks (DQN) を用いて実用関数を近似する深層強化学習フレームワークPathletRLを開発した。
- 参考スコア(独自算出の注目度): 1.283555556182245
- License:
- Abstract: Advances in tracking technologies have spurred the rapid growth of large-scale trajectory data. Building a compact collection of pathlets, referred to as a trajectory pathlet dictionary, is essential for supporting mobility-related applications. Existing methods typically adopt a top-down approach, generating numerous candidate pathlets and selecting a subset, leading to high memory usage and redundant storage from overlapping pathlets. To overcome these limitations, we propose a bottom-up strategy that incrementally merges basic pathlets to build the dictionary, reducing memory requirements by up to 24,000 times compared to baseline methods. The approach begins with unit-length pathlets and iteratively merges them while optimizing utility, which is defined using newly introduced metrics of trajectory loss and representability. We develop a deep reinforcement learning framework, PathletRL, which utilizes Deep Q-Networks (DQN) to approximate the utility function, resulting in a compact and efficient pathlet dictionary. Experiments on both synthetic and real-world datasets demonstrate that our method outperforms state-of-the-art techniques, reducing the size of the constructed dictionary by up to 65.8%. Additionally, our results show that only half of the dictionary pathlets are needed to reconstruct 85% of the original trajectory data. Building on PathletRL, we introduce PathletRL++, which extends the original model by incorporating a richer state representation and an improved reward function to optimize decision-making during pathlet merging. These enhancements enable the agent to gain a more nuanced understanding of the environment, leading to higher-quality pathlet dictionaries. PathletRL++ achieves even greater dictionary size reduction, surpassing the performance of PathletRL, while maintaining high trajectory representability.
- Abstract(参考訳): 追跡技術の進歩により、大規模軌跡データの急速な成長が加速した。
トラジェクトリパスレット辞書と呼ばれるパレットのコンパクトなコレクションを構築することは、モビリティ関連のアプリケーションをサポートするために不可欠である。
既存のメソッドは通常、トップダウンアプローチを採用し、多数の候補パスレットを生成し、サブセットを選択する。
これらの制限を克服するために,基本パスレットを段階的にマージして辞書を構築するボトムアップ戦略を提案し,ベースライン法と比較してメモリ要求を最大24,000倍削減する。
このアプローチは、単位長のパスレットから始まり、それらを反復的にマージすると同時に、新たに導入された軌道損失と表現可能性のメトリクスを使用して定義されるユーティリティを最適化する。
本稿では,DQN(Deep Q-Networks)を応用した拡張学習フレームワークPathletRLを開発した。
合成と実世界の両方のデータセットの実験により、我々の手法は最先端技術より優れており、構築された辞書のサイズを最大65.8%削減することを示した。
さらに,本研究の結果から,本来のトラジェクトリデータの85%を再構築するためには,辞書パスレットの半数しか必要とされないことがわかった。
PathletRL上に構築されたPathletRL++は、よりリッチな状態表現と改善された報酬関数を組み込んで、パスレットマージ時の意思決定を最適化することで、元のモデルを拡張する。
これらの拡張により、エージェントは環境のより微妙な理解を得ることができ、高品質なパスレット辞書を生み出す。
PathletRL++は、高い軌道表現性を維持しながら、PathletRLの性能を上回る、さらに大きな辞書サイズ削減を実現している。
関連論文リスト
- Search for Efficient Large Language Models [52.98684997131108]
大規模言語モデル(LLMs)は、人工知能研究の領域で長い間停滞してきた。
軽量プルーニング、量子化、蒸留がLLMの圧縮に取り入れられ、メモリの削減と推論の加速を狙った。
ほとんどのモデル圧縮技術は、最適アーキテクチャの探索を見越して重量最適化に重点を置いている。
論文 参考訳(メタデータ) (2024-09-25T21:32:12Z) - An Analysis of BPE Vocabulary Trimming in Neural Machine Translation [56.383793805299234]
語彙トリミング(vocabulary trimming)は、まれなサブワードをコンポーネントサブワードに置き換える後処理のステップである。
ボキャブラリトリミングは性能向上に失敗し,さらに大きな劣化を招きやすいことを示す。
論文 参考訳(メタデータ) (2024-03-30T15:29:49Z) - Seismic Traveltime Tomography with Label-free Learning [5.5631620554364805]
従来の断層法は迅速に実装できるが、その効果は以前の仮定によって制限されることが多い。
深層学習と辞書学習を統合して,解像度を低解像度で向上する手法を提案する。
合成データとフィールドデータの両方に対する数値実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-02-01T03:49:10Z) - Explainable Trajectory Representation through Dictionary Learning [7.567576186354494]
ネットワーク上での軌道表現学習は、車両交通パターンの理解を高める。
古典的な機械学習やディープラーニングを使った既存のアプローチは、解釈性に欠ける高密度ベクトルとして軌道を埋め込む。
本稿では,辞書学習を通して記述可能な軌道表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-13T10:59:54Z) - Bit Cipher -- A Simple yet Powerful Word Representation System that
Integrates Efficiently with Language Models [4.807347156077897]
Bit-cipherは、バックプロパゲーションや超高効率次元減少技術の必要性を排除したワード表現システムである。
我々は、古典的な埋め込みによるビット暗号の競合性を評価するために、POSタグと名前付きエンティティ認識(NER)の探索実験を行った。
埋め込み層を暗号埋め込みに置き換えることで、トレーニングプロセスの高速化と最適な最適化を実現する上での暗号の顕著な効率を実証した。
論文 参考訳(メタデータ) (2023-11-18T08:47:35Z) - Using Context-to-Vector with Graph Retrofitting to Improve Word
Embeddings [39.30342855873457]
より文脈的な情報をSkip-gramフレームワークに組み込むことで、単語の埋め込みを改善することを目指している。
我々の手法は、基準線を大きなマージンで上回ることがよく証明されている。
論文 参考訳(メタデータ) (2022-10-30T14:15:43Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z) - Efficient Fine-Tuning of Compressed Language Models with Learners [12.768368718187428]
本稿では,BERTをベースとしたモデルを微調整する新しい手法であるLearnerモジュールとプライミングを紹介する。
学習モジュールは, 1) パラメータのサブセットを微調整することで, 1) 学習モジュールの二重結合を効果的に操作し, 2) 迅速な収束と高い測定値のスコアを確保することによって効果的に学習する。
DistilBERTの結果は,学習者がベースラインに匹敵する性能を示した。
論文 参考訳(メタデータ) (2022-08-03T13:42:30Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Cream of the Crop: Distilling Prioritized Paths For One-Shot Neural
Architecture Search [60.965024145243596]
ワンショット重み共有手法は、高効率と競争性能のため、最近、ニューラルアーキテクチャ探索において大きな注目を集めている。
この問題を軽減するため, 単純で効果的な蒸留法を提案する。
本稿では、訓練中に優れた性能を示すアーキテクチャ候補を指す優先順位付けパスの概念を紹介する。
優先順位付けされた経路は、その性能や複雑さに応じて、ハエで変化するため、最終的な経路は作物のクリームである。
論文 参考訳(メタデータ) (2020-10-29T17:55:05Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。