論文の概要: Inductive Graph Transformer for Delivery Time Estimation
- arxiv url: http://arxiv.org/abs/2211.02863v1
- Date: Sat, 5 Nov 2022 09:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 19:18:33.594193
- Title: Inductive Graph Transformer for Delivery Time Estimation
- Title(参考訳): 納期推定のためのインダクティブグラフ変換器
- Authors: Xin Zhou, Jinglong Wang, Yong Liu, Xingyu Wu, Zhiqi Shen, Cyril Leung
- Abstract要約: 生の特徴情報と構造グラフデータを利用してパッケージの納期を推定するインダクティブグラフ変換器(IGT)を提案する。
実世界のロジスティクスデータセットを用いた実験により,提案モデルが納期推定の最先端手法を大幅に上回ることを示す。
- 参考スコア(独自算出の注目度): 19.024006381947416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing accurate estimated time of package delivery on users' purchasing
pages for e-commerce platforms is of great importance to their purchasing
decisions and post-purchase experiences. Although this problem shares some
common issues with the conventional estimated time of arrival (ETA), it is more
challenging with the following aspects: 1) Inductive inference. Models are
required to predict ETA for orders with unseen retailers and addresses; 2)
High-order interaction of order semantic information. Apart from the
spatio-temporal features, the estimated time also varies greatly with other
factors, such as the packaging efficiency of retailers, as well as the
high-order interaction of these factors. In this paper, we propose an inductive
graph transformer (IGT) that leverages raw feature information and structural
graph data to estimate package delivery time. Different from previous graph
transformer architectures, IGT adopts a decoupled pipeline and trains
transformer as a regression function that can capture the multiplex information
from both raw feature and dense embeddings encoded by a graph neural network
(GNN). In addition, we further simplify the GNN structure by removing its
non-linear activation and the learnable linear transformation matrix. The
reduced parameter search space and linear information propagation in the
simplified GNN enable the IGT to be applied in large-scale industrial
scenarios. Experiments on real-world logistics datasets show that our proposed
model can significantly outperform the state-of-the-art methods on estimation
of delivery time. The source code is available at:
https://github.com/enoche/IGT-WSDM23.
- Abstract(参考訳): ユーザのeコマースプラットフォーム購入ページにおけるパッケージ配信の正確な推定時間を提供することは、購入決定と後購入体験において非常に重要である。
この問題は、従来の推定到着時刻(eta)と共通する問題を共有しているが、以下の点ではより困難である。
1)誘導推論。
未確認の小売業者及び住所の注文に対するETAの予測にはモデルが必要である。
2)順序意味情報の高次相互作用。
時空間的特徴とは別に、推定時間は小売業者の包装効率やこれらの要因の高次相互作用など他の要因と大きく異なる。
本稿では、生の特徴情報と構造グラフデータを利用してパッケージの配送時間を推定するインダクティブグラフ変換器(IGT)を提案する。
従来のグラフトランスフォーマーアーキテクチャとは異なり、IGTは分離パイプラインとトレーニングトランスフォーマーを回帰関数として採用し、グラフニューラルネットワーク(GNN)によって符号化された生の特徴と密埋め込みの両方から多重情報をキャプチャすることができる。
さらに、非線形活性化と学習可能な線形変換行列を取り除き、GNN構造をさらに単純化する。
単純化されたGNNにおけるパラメータ探索空間と線形情報伝搬により、IGTは大規模産業シナリオに適用できる。
実世界のロジスティクスデータセットを用いた実験により,提案モデルが納期推定の最先端手法を大幅に上回ることを示す。
ソースコードはhttps://github.com/enoche/igt-wsdm23。
関連論文リスト
- Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - TransformerG2G: Adaptive time-stepping for learning temporal graph
embeddings using transformers [2.2120851074630177]
本研究では,不確実な定量化を伴うグラフ埋め込みモデルであるTransformerG2Gを開発し,時間的グラフの時間的ダイナミクスを学習する。
提案したTransformerG2Gモデルが従来のマルチステップ法より優れていることを示す。
注意重みを調べることで、時間的依存関係を解明し、影響力のある要素を特定し、グラフ構造内の複雑な相互作用についての洞察を得ることができる。
論文 参考訳(メタデータ) (2023-07-05T18:34:22Z) - Networked Time Series Imputation via Position-aware Graph Enhanced
Variational Autoencoders [31.953958053709805]
我々は,変分オートエンコーダ(VAE)を利用して,ノード時系列の特徴とグラフ構造の両方に欠落する値を予測するPoGeVonという新しいモデルを設計する。
実験の結果,ベースライン上でのモデルの有効性が示された。
論文 参考訳(メタデータ) (2023-05-29T21:11:34Z) - G-Adapter: Towards Structure-Aware Parameter-Efficient Transfer Learning
for Graph Transformer Networks [0.7118812771905295]
特徴分布シフトの問題から,既存のPEFTをグラフベースタスクへ直接転送することが準最適であることを示す。
本稿では,G-Adapter という新しい構造対応PEFT手法を提案する。
大規模な実験により、G-Adapterは9つのグラフベンチマークデータセットと比較すると、最先端のパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2023-05-17T16:10:36Z) - EasyDGL: Encode, Train and Interpret for Continuous-time Dynamic Graph Learning [92.71579608528907]
本稿では,3つのモジュールから構成される使い勝手の良いパイプライン(EasyDGL)を設計することを目的とする。
EasyDGLは、進化するグラフデータからモデルが学習する周波数コンテンツの予測力を効果的に定量化することができる。
論文 参考訳(メタデータ) (2023-03-22T06:35:08Z) - Graph Decision Transformer [83.76329715043205]
グラフ決定変換器(GDT)は、新しいオフライン強化学習手法である。
GDTは入力シーケンスを因果グラフにモデル化し、基本的な異なる概念間の潜在的な依存関係をキャプチャする。
実験の結果,GDT は画像ベース Atari と OpenAI の Gym 上で,最先端のオフライン RL 手法の性能と一致しているか,上回っていることがわかった。
論文 参考訳(メタデータ) (2023-03-07T09:10:34Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Towards Flexible Inductive Bias via Progressive Reparameterization
Scheduling [25.76814731638375]
コンピュータビジョンには、畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)の2つのデファクト標準アーキテクチャがある。
これらのアプローチの見落としとして、最適な帰納バイアスも、対象データスケールの変化に応じて変化することを示す。
畳み込みのような帰納バイアスがモデルに含まれるほど、ViTのようなモデルがResNetのパフォーマンスを上回っている場合、データスケールが小さくなります。
論文 参考訳(メタデータ) (2022-10-04T04:20:20Z) - Unboxing the graph: Neural Relational Inference for Mobility Prediction [15.4049962498675]
グラフネットワーク(GNN)は、非ユークリッド空間データに広く応用されている。
本稿では,最適グラフモデルを動的に学習するニューラル推論を用いる。
論文 参考訳(メタデータ) (2022-01-25T13:26:35Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。