論文の概要: Decision Information Meets Large Language Models: The Future of Explainable Operations Research
- arxiv url: http://arxiv.org/abs/2502.09994v1
- Date: Fri, 14 Feb 2025 08:25:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:46:17.572020
- Title: Decision Information Meets Large Language Models: The Future of Explainable Operations Research
- Title(参考訳): 大規模言語モデルに対応した意思決定情報 : 説明可能な運用研究の将来
- Authors: Yansen Zhang, Qingcan Kang, Wing Yin Yu, Hailei Gong, Xiaojin Fu, Xiongwei Han, Tao Zhong, Chen Ma,
- Abstract要約: 本稿では,動作可能で理解可能な説明を重視した包括的フレームワーク,説明可能な操作研究(EOR)を提案する。
EORの中核は決定情報(Decision Information)の概念であり、それは何の分析から生まれ、複雑な制約の影響を評価することに焦点を当てている。
我々は,オペレーション・リサーチにおける説明と分析の有効性を厳格に評価するために,最初の産業ベンチマークを導入する。
- 参考スコア(独自算出の注目度): 8.228707152775964
- License:
- Abstract: Operations Research (OR) is vital for decision-making in many industries. While recent OR methods have seen significant improvements in automation and efficiency through integrating Large Language Models (LLMs), they still struggle to produce meaningful explanations. This lack of clarity raises concerns about transparency and trustworthiness in OR applications. To address these challenges, we propose a comprehensive framework, Explainable Operations Research (EOR), emphasizing actionable and understandable explanations accompanying optimization. The core of EOR is the concept of Decision Information, which emerges from what-if analysis and focuses on evaluating the impact of complex constraints (or parameters) changes on decision-making. Specifically, we utilize bipartite graphs to quantify the changes in the OR model and adopt LLMs to improve the explanation capabilities. Additionally, we introduce the first industrial benchmark to rigorously evaluate the effectiveness of explanations and analyses in OR, establishing a new standard for transparency and clarity in the field.
- Abstract(参考訳): オペレーションリサーチ(OR)は多くの産業において意思決定に不可欠である。
最近のORメソッドは、LLM(Large Language Models)を統合することで、自動化と効率を大幅に改善した。
この明確さの欠如は、ORアプリケーションにおける透明性と信頼性に関する懸念を引き起こす。
これらの課題に対処するため、我々は、最適化に伴う実行可能かつ理解可能な説明を強調する包括的なフレームワーク、説明可能な操作研究(EOR)を提案する。
EORの中核は決定情報(Decision Information)の概念であり、これは何の分析から生まれ、複雑な制約(またはパラメータ)の変化が意思決定に与える影響を評価することに焦点を当てている。
具体的には、両部グラフを用いてORモデルの変化を定量化し、LLMを採用して説明能力を向上させる。
さらに、ORにおける説明と分析の有効性を厳格に評価する最初の産業ベンチマークを導入し、この分野における透明性と明確性の新たな標準を確立した。
関連論文リスト
- MARS: Benchmarking the Metaphysical Reasoning Abilities of Language Models with a Multi-task Evaluation Dataset [50.36095192314595]
大きな言語モデル(LLM)は、一般化可能な推論能力を持つ意識的なエージェントとして機能する。
この能力は、イベントにおける無限の可能な変更をモデル化する複雑さのために、まだ探索されていない。
我々は,各ステップに対応する3つのタスクからなる最初のベンチマークMARSを紹介する。
論文 参考訳(メタデータ) (2024-06-04T08:35:04Z) - Enhancing Decision-Making in Optimization through LLM-Assisted Inference: A Neural Networks Perspective [1.0420394952839245]
本稿では,生成型AI(GenAI)と進化型アルゴリズム(EA)のシームレスな統合について検討する。
大規模言語モデル(LLM)の変換的役割に着目し,LLM支援推論による意思決定プロセスの自動化と向上の可能性について検討した。
論文 参考訳(メタデータ) (2024-05-12T08:22:53Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - DisCERN:Discovering Counterfactual Explanations using Relevance Features
from Neighbourhoods [1.9706200133168679]
DisCERNは、優れた対実的説明を作成するために必要な実行可能な変更を最小限に抑える効果的な戦略である。
機能関連性に基づく説明がDisCERNに「実行可能な機能」の最小サブセットを特定するためにいかに広く採用されているかを示す。
以上の結果から, DisCERN は, 適切な対実的説明作成に必要な実行可能な変更を最小化するための効果的な戦略であることが示唆された。
論文 参考訳(メタデータ) (2021-09-13T09:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。