論文の概要: Explaining Preference-driven Schedules: the EXPRES Framework
- arxiv url: http://arxiv.org/abs/2203.08895v1
- Date: Wed, 16 Mar 2022 19:15:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 14:45:45.929159
- Title: Explaining Preference-driven Schedules: the EXPRES Framework
- Title(参考訳): 推論駆動型スケジューリングの解説: EXPRES Framework
- Authors: Alberto Pozanco, Francesca Mosca, Parisa Zehtabi, Daniele Magazzeni,
Sarit Kraus
- Abstract要約: EXPRESフレームワークを導入し、与えられた最適なスケジュールで優先権が満足できない理由を説明する。
EXPRESフレームワークは、 (i) 混合整数線形プログラミングモデルに基づいて、不満足な嗜好を説明する最高の理由セットを見つける説明生成器と、 (ii) 生成された説明を人間の解釈可能なものに変換する説明器から構成される。
- 参考スコア(独自算出の注目度): 23.47188079362728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scheduling is the task of assigning a set of scarce resources distributed
over time to a set of agents, who typically have preferences about the
assignments they would like to get. Due to the constrained nature of these
problems, satisfying all agents' preferences is often infeasible, which might
lead to some agents not being happy with the resulting schedule. Providing
explanations has been shown to increase satisfaction and trust in solutions
produced by AI tools. However, it is particularly challenging to explain
solutions that are influenced by and impact on multiple agents. In this paper
we introduce the EXPRES framework, which can explain why a given preference was
unsatisfied in a given optimal schedule. The EXPRES framework consists of: (i)
an explanation generator that, based on a Mixed-Integer Linear Programming
model, finds the best set of reasons that can explain an unsatisfied
preference; and (ii) an explanation parser, which translates the generated
explanations into human interpretable ones. Through simulations, we show that
the explanation generator can efficiently scale to large instances. Finally,
through a set of user studies within J.P. Morgan, we show that employees
preferred the explanations generated by EXPRES over human-generated ones when
considering workforce scheduling scenarios.
- Abstract(参考訳): スケジューリングは、時間とともに分散している不足するリソースのセットをエージェントのセットに割り当てるタスクである。
これらの問題の制約された性質のため、全てのエージェントの好みを満たすことはしばしば実現不可能であり、その結果のスケジュールに満足していないエージェントもいる。
説明を提供することは、AIツールが生み出すソリューションに対する満足度と信頼を高めることが示されている。
しかし、複数のエージェントに影響され、影響するソリューションを説明することは特に困難である。
本稿では,与えられた選好が最適なスケジュールで満足できない理由を説明するためのEXPRESフレームワークを紹介する。
EXPRESフレームワークは:
(i)混合整数線形計画モデルに基づく説明生成器は、不満足な嗜好を説明できる理由の最良のセットを見つけ出す。
(ii) 生成した説明を人間の解釈可能な説明に翻訳する説明パーサ。
シミュレーションにより,説明生成器を大規模インスタンスに効率的に拡張できることを示す。
最後に,j.p.morganにおけるユーザスタディを通して,労働スケジューリングシナリオを考慮した場合,従業員は人為的に生成した説明よりも人為的な説明を好むことを示した。
関連論文リスト
- XPrompt:Explaining Large Language Model's Generation via Joint Prompt Attribution [26.639271355209104]
LLM(Large Language Models)は複雑なテキスト生成タスクにおいて顕著なパフォーマンスを示す。
生成したコンテンツに対する入力プロンプトの寄与は、まだ人間には明らかでない。
本稿では,共同プロンプト帰属型XPromptに基づく実例説明フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T18:16:41Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Getting MoRE out of Mixture of Language Model Reasoning Experts [71.61176122960464]
多様な特殊言語モデルを組み込んだMixture-of-Reasoning-Experts (MoRE) フレームワークを提案する。
実例,マルチホップ,数学的,コモンセンス推論など,さまざまな推論カテゴリに最適化されたプロンプトを備えたバックボーン言語モデルを特化する。
人間の研究では、専門家による予測と回答の選択プロセスが、アノテータがシステムの出力を信頼するタイミングをより正確に調整するのに役立ちます。
論文 参考訳(メタデータ) (2023-05-24T02:00:51Z) - Explainable Multi-Agent Reinforcement Learning for Temporal Queries [18.33682005623418]
本研究は、時間的ユーザクエリに応答するMARLに対して、ポリシーレベルのコントラスト的説明を生成するアプローチを提案する。
提案手法は,PCTL論理式として時間的クエリを符号化し,そのクエリが所定のMARLポリシーの下で実現可能かどうかをチェックする。
ユーザスタディの結果から,生成した説明書はユーザパフォーマンスと満足度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-05-17T17:04:29Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Not all users are the same: Providing personalized explanations for
sequential decision making problems [25.24098967133101]
本研究では,エンドツーエンドの適応的説明生成システムを提案する。
最初は、エージェントが対話できるさまざまなタイプのユーザを学習することから始まる。
その後、ハエの型を特定し、それに応じて説明を調整する。
論文 参考訳(メタデータ) (2021-06-23T07:46:19Z) - Optimal Counterfactual Explanations in Tree Ensembles [3.8073142980733]
我々は「最適」な説明を目的としたモデルに基づく探索を提唱し、効率的な混合整数プログラミング手法を提案する。
孤立林は我々のフレームワーク内でモデル化され、低いアウトリーチスコアで妥当な説明に焦点を絞ることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T22:44:27Z) - Modelling Multi-Agent Epistemic Planning in ASP [66.76082318001976]
本稿では,マルチショット・アンサー・セット・プログラミング・ベース・プランナの実装について述べる。
本稿は, アドホックなエピステミック状態表現とASPソルバの効率を生かしたプランナーが, 文献から収集したベンチマークに対して, 競合的な性能を示すことを示す。
論文 参考訳(メタデータ) (2020-08-07T06:35:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。