論文の概要: RouteExplainer: An Explanation Framework for Vehicle Routing Problem
- arxiv url: http://arxiv.org/abs/2403.03585v1
- Date: Wed, 6 Mar 2024 10:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 15:22:30.999822
- Title: RouteExplainer: An Explanation Framework for Vehicle Routing Problem
- Title(参考訳): RouteExplainer: 車両ルーティング問題のための説明フレームワーク
- Authors: Daisuke Kikuta and Hiroki Ikeuchi and Kengo Tajiri and Yuusuke Nakano
- Abstract要約: 本稿では,生成経路における各エッジの影響を説明する,ポストホックな説明フレームワークであるRouteExplainerを提案する。
本フレームワークは,行動系列として経路を再考し,行動影響モデルに基づく対実的説明をVRPに拡張することでこれを実現している。
さらに、各エッジの意図を推測するエッジ分類器、エッジ分類器を訓練する損失関数、大言語モデル(LLM)による説明文生成を提案する。
- 参考スコア(独自算出の注目度): 1.7034420812099471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Vehicle Routing Problem (VRP) is a widely studied combinatorial
optimization problem and has been applied to various practical problems. While
the explainability for VRP is significant for improving the reliability and
interactivity in practical VRP applications, it remains unexplored. In this
paper, we propose RouteExplainer, a post-hoc explanation framework that
explains the influence of each edge in a generated route. Our framework
realizes this by rethinking a route as the sequence of actions and extending
counterfactual explanations based on the action influence model to VRP. To
enhance the explanation, we additionally propose an edge classifier that infers
the intentions of each edge, a loss function to train the edge classifier, and
explanation-text generation by Large Language Models (LLMs). We quantitatively
evaluate our edge classifier on four different VRPs. The results demonstrate
its rapid computation while maintaining reasonable accuracy, thereby
highlighting its potential for deployment in practical applications. Moreover,
on the subject of a tourist route, we qualitatively evaluate explanations
generated by our framework. This evaluation not only validates our framework
but also shows the synergy between explanation frameworks and LLMs. See
https://ntt-dkiku.github.io/xai-vrp for our code, datasets, models, and demo.
- Abstract(参考訳): 車両経路問題(vrp)は広く研究されている組合せ最適化問題であり、様々な実用問題に適用されている。
実用的なVRPアプリケーションの信頼性と対話性を改善するために、VRPの説明責任は重要であるが、まだ解明されていない。
本稿では,生成経路における各エッジの影響を説明するポストホックな説明フレームワークである routeexplainer を提案する。
本フレームワークは,行動系列として経路を再考し,行動影響モデルに基づく対実的説明をVRPに拡張することで,これを実現する。
さらに,各エッジの意図を推定するエッジ分類器,エッジ分類器を訓練するロス関数,大言語モデル(llm)による説明テキスト生成を提案する。
エッジ分類器を4種類のVRPで定量的に評価した。
その結果、精度を保ちながら高速な計算を行い、実用的なアプリケーションに展開する可能性を強調した。
さらに,観光ルートの課題として,この枠組みが生み出す説明を質的に評価する。
この評価は、我々のフレームワークを検証するだけでなく、説明フレームワークとLLM間の相乗効果も示す。
私たちのコード、データセット、モデル、デモについては、https://ntt-dkiku.github.io/xai-vrpを参照してください。
関連論文リスト
- Improve Vision Language Model Chain-of-thought Reasoning [86.83335752119741]
視覚言語モデル(VLM)におけるチェーン・オブ・シント(CoT)推論は、解釈可能性と信頼性を向上させるために不可欠である。
我々は,より詳細な回答を必要とする推論タスクに対して,短時間でVLMを訓練することはよくないことを示す。
論文 参考訳(メタデータ) (2024-10-21T17:00:06Z) - Unleashing the Power of Task-Specific Directions in Parameter Efficient Fine-tuning [65.31677646659895]
本稿では,タスク固有の方向性 (TSD) の概念に着目し,大規模モデルを事前学習状態からPEFTにおけるタスク固有の拡張へ移行させる。
本稿では,微調整過程におけるTSDの影響を最大化し,目標タスクにおけるモデル性能を向上させることを目的とした新しいアプローチであるLoRA-Dashを紹介する。
論文 参考訳(メタデータ) (2024-09-02T08:10:51Z) - GASE: Graph Attention Sampling with Edges Fusion for Solving Vehicle Routing Problems [6.084414764415137]
車両のルーティング問題を解決するためにEdges Fusionフレームワークを用いた適応型グラフ注意サンプリングを提案する。
提案手法は,既存の手法を2.08%-6.23%上回り,より強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-05-21T03:33:07Z) - Fine-Tuning Large Vision-Language Models as Decision-Making Agents via Reinforcement Learning [79.38140606606126]
強化学習(RL)を用いた視覚言語モデル(VLM)を微調整するアルゴリズムフレームワークを提案する。
我々のフレームワークはタスク記述を提供し、次にVLMにチェーン・オブ・シント(CoT)推論を生成するよう促す。
提案手法は,VLMエージェントの様々なタスクにおける意思決定能力を向上させる。
論文 参考訳(メタデータ) (2024-05-16T17:50:19Z) - MacFormer: Map-Agent Coupled Transformer for Real-time and Robust
Trajectory Prediction [26.231420111336565]
実時間およびロバストな軌道予測のためのMap-Agent Coupled Transformer (MacFormer)を提案する。
本フレームワークは,共用マップと参照抽出器という,慎重に設計された2つのモジュールを通じて,マップ制約をネットワークに明示的に組み込む。
我々はArgoverse 1 と Argoverse 2 と nuScenes の実世界のベンチマークに対するアプローチを評価し、いずれも最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-08-20T14:27:28Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - CoRTX: Contrastive Framework for Real-time Explanation [39.80484758207907]
説明指向表現を学習するために,Contrastive Real-Time eXplanation (CoRTX) フレームワークを提案する。
具体的には、説明の学習において、肯定的および否定的な事例を選択するための合成戦略を設計する。
論文 参考訳(メタデータ) (2023-03-05T23:01:02Z) - Semantic-aware Modular Capsule Routing for Visual Question Answering [55.03883681191765]
SuPER と呼ばれるセマンティック・アウェアな modUlar caPsulE フレームワークを提案する。
5つのベンチマークデータセットに対して提案した SUPER スキームの有効性と一般化能力を比較検討した。
論文 参考訳(メタデータ) (2022-07-21T10:48:37Z) - Joint Answering and Explanation for Visual Commonsense Reasoning [46.44588492897933]
Visual Commonsense Reasoningは、よりハイレベルな視覚的理解を追求する試みである。
与えられた画像に対する質問応答と、回答説明のための合理的推論の2つの必須プロセスで構成されている。
本稿では,質問応答と推論プロセスの合理化を両立させるための知識蒸留強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-25T11:26:52Z) - A Peek Into the Reasoning of Neural Networks: Interpreting with
Structural Visual Concepts [38.215184251799194]
直感的な構造的視覚概念で分類NNを解釈するフレームワーク(VRX)を提案する。
ナレッジ蒸留によって、VRXはNNの推論プロセスを模倣する一歩を踏み出すことができることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:47:42Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。