論文の概要: Learning Classifier Systems for Self-Explaining Socio-Technical-Systems
- arxiv url: http://arxiv.org/abs/2207.02300v1
- Date: Fri, 1 Jul 2022 08:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-10 12:18:19.795051
- Title: Learning Classifier Systems for Self-Explaining Socio-Technical-Systems
- Title(参考訳): 自己説明型社会工学システムのための学習分類システム
- Authors: Michael Heider, Helena Stegherr, Richard Nordsieck, J\"org H\"ahner
- Abstract要約: 社会技術的設定では、オペレーターは意思決定支援システムによってますます助けられている。
オペレーターに受け入れられ、効率的に関与するには、特定の意思決定の背後にある理由について、意思決定支援システムが説明できる必要がある。
本稿では,アプリケーション固有の説明可能性の必要性を評価するための7つの質問のテンプレートを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In socio-technical settings, operators are increasingly assisted by decision
support systems. By employing these, important properties of socio-technical
systems such as self-adaptation and self-optimization are expected to improve
further. To be accepted by and engage efficiently with operators, decision
support systems need to be able to provide explanations regarding the reasoning
behind specific decisions. In this paper, we propose the usage of Learning
Classifier Systems, a family of rule-based machine learning methods, to
facilitate transparent decision making and highlight some techniques to improve
that. We then present a template of seven questions to assess
application-specific explainability needs and demonstrate their usage in an
interview-based case study for a manufacturing scenario. We find that the
answers received did yield useful insights for a well-designed LCS model and
requirements to have stakeholders actively engage with an intelligent agent.
- Abstract(参考訳): 社会技術的設定では、オペレータは意思決定支援システムによってますます助けられている。
これらを用いることで、自己適応や自己最適化といった社会技術システムの重要な特性がさらに向上することが期待される。
オペレーターに受け入れられ、効率的に関与するためには、意思決定支援システムは、特定の決定の背後にある理由の説明を提供する必要がある。
本稿では,ルールベースの機械学習手法のファミリである学習分類器システムを用いて,透過的な意思決定を容易にし,その改善手法を強調する。
次に,7つの質問のテンプレートを提示して,アプリケーション固有の説明可能性のニーズを評価し,その使用例をインタビュアーベースの生産シナリオのケーススタディで示す。
得られた回答は、よく設計されたLCSモデルに有用な洞察を与え、利害関係者が知的エージェントに積極的に関与するように要求する。
関連論文リスト
- K-ESConv: Knowledge Injection for Emotional Support Dialogue Systems via
Prompt Learning [83.19215082550163]
K-ESConvは、感情支援対話システムのための、新しい学習に基づく知識注入手法である。
本研究では,情緒的支援データセットESConvを用いて,外部の専門的情緒的Q&Aフォーラムから知識を抽出し,組み込んだモデルを評価した。
論文 参考訳(メタデータ) (2023-12-16T08:10:10Z) - Personalized Decision Supports based on Theory of Mind Modeling and
Explainable Reinforcement Learning [0.9071985476473737]
我々は、心の理論(ToM)モデリングと説明可能な強化学習(XRL)を組み合わせた、パーソナライズされた意思決定支援システムを提案する。
提案システムは,エンドユーザが容易に解釈可能な,正確でパーソナライズされた介入を生成する。
論文 参考訳(メタデータ) (2023-12-13T00:37:17Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - Assisting Human Decisions in Document Matching [52.79491990823573]
我々は,意思決定者のパフォーマンスを向上する支援情報の種類を評価するためのプロキシマッチングタスクを考案した。
ブラックボックスモデルによる説明を提供することで,マッチング作業におけるユーザの精度が低下することが判明した。
一方,タスク固有のデシラタに密接に対応するように設計されたカスタムメソッドは,ユーザのパフォーマンス向上に有効であることが判明した。
論文 参考訳(メタデータ) (2023-02-16T17:45:20Z) - An Interactive Explanatory AI System for Industrial Quality Control [0.8889304968879161]
我々は,ループ間対話型アプローチに向けて,欠陥検出タスクを拡張することを目的としている。
本稿では,産業品質管理環境における分類のための対話型支援システムを提案する。
論文 参考訳(メタデータ) (2022-03-17T09:04:46Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Explainable Predictive Process Monitoring: A User Evaluation [62.41400549499849]
説明責任は、ブラックボックス機械学習アプローチの透明性の欠如によって動機付けられている。
予測プロセスモニタリングのための説明手法のユーザ評価を行う。
論文 参考訳(メタデータ) (2022-02-15T22:24:21Z) - How to choose an Explainability Method? Towards a Methodical
Implementation of XAI in Practice [3.974102831754831]
我々は,利害関係者のニーズと説明方法のギャップを埋めるための方法論の必要性を論じる。
我々は、ステークホルダーに説明責任を提供するプロセスにおいて、データサイエンティストを支援するために、この方法論を作成するための継続的な作業を示す。
論文 参考訳(メタデータ) (2021-07-09T13:22:58Z) - Design principles for a hybrid intelligence decision support system for
business model validation [4.127347156839169]
本稿では,ハイブリッドインテリジェンス意思決定支援システム(HI-DSS)の設計原理について述べる。
我々はプロトタイプのアーティファクトと一連の設計原則を設計するための設計科学研究アプローチに従う。
本研究は,hi-dssの規範的知識を提供し,ビジネスモデルに対する意思決定支援,意思決定のための人間と機械の補完的強みの応用,極めて不確定な意思決定問題に対する支援システムの先行研究に寄与する。
論文 参考訳(メタデータ) (2021-05-07T16:13:36Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - A systematic review and taxonomy of explanations in decision support and
recommender systems [13.224071661974596]
我々は,勧告システムにおける説明に関する文献を体系的にレビューする。
我々は、説明施設を設計する際に考慮すべき側面の包括的分類法を考案した。
論文 参考訳(メタデータ) (2020-06-15T18:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。