論文の概要: "A Good Bot Always Knows Its Limitations": Assessing Autonomous System Decision-making Competencies through Factorized Machine Self-confidence
- arxiv url: http://arxiv.org/abs/2407.19631v1
- Date: Mon, 29 Jul 2024 01:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 15:25:50.050581
- Title: "A Good Bot Always Knows Its Limitations": Assessing Autonomous System Decision-making Competencies through Factorized Machine Self-confidence
- Title(参考訳): 『良きボットが常に限界を知る』:機械の自己自信による自律的なシステム決定能力の評価
- Authors: Brett Israelsen, Nisar R. Ahmed, Matthew Aitken, Eric W. Frew, Dale A. Lawrence, Brian M. Argrow,
- Abstract要約: 本稿では,Factized Machine Self-confidence (FaMSeC) という計算フレームワークを提案する。
FaMSeCは、アルゴリズムによる意思決定プロセスを駆動する要因について、エンジニアリングに焦点を当てた全体的記述を提供する。
指標は、確率的意思決定アルゴリズムの幅広いクラスに埋め込まれた階層的な問題解決統計から導かれる。
- 参考スコア(独自算出の注目度): 5.167803438665586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can intelligent machines assess their competencies in completing tasks? This question has come into focus for autonomous systems that algorithmically reason and make decisions under uncertainty. It is argued here that machine self-confidence -- a form of meta-reasoning based on self-assessments of an agent's knowledge about the state of the world and itself, as well as its ability to reason about and execute tasks -- leads to many eminently computable and useful competency indicators for such agents. This paper presents a culmination of work on this concept in the form of a computational framework called Factorized Machine Self-confidence (FaMSeC), which provides an engineering-focused holistic description of factors driving an algorithmic decision-making process, including outcome assessment, solver quality, model quality, alignment quality, and past experience. In FaMSeC, self-confidence indicators are derived from hierarchical `problem-solving statistics' embedded within broad classes of probabilistic decision-making algorithms such as Markov decision processes. The problem-solving statistics are obtained by evaluating and grading probabilistic exceedance margins with respect to given competency standards, which are specified for each decision-making competency factor by the informee (e.g. a non-expert user or an expert system designer). This approach allows `algorithmic goodness of fit' evaluations to be easily incorporated into the design of many kinds of autonomous agents via human-interpretable competency self-assessment reports. Detailed descriptions and running application examples for a Markov decision process agent show how two FaMSeC factors (outcome assessment and solver quality) can be practically computed and reported for a range of possible tasking contexts through novel use of meta-utility functions, behavior simulations, and surrogate prediction models.
- Abstract(参考訳): インテリジェントマシンは、タスク完了時の能力を評価するにはどうすればよいか?
この問題は、アルゴリズムで推論し、不確実性の下で決定する自律システムに焦点が当てられている。
ここでは、機械の自信 - エージェントの世界の状況とそれ自身に関する知識の自己評価に基づくメタ推論の形式、およびタスクの推論と実行能力 - が、そのようなエージェントに多くの卓越した計算可能で有用な能力指標をもたらすと論じられている。
本稿では,この概念をFactized Machine Self-confidence (FaMSeC) という計算フレームワークの形で実現し,結果評価,ソルバ品質,モデル品質,アライメント品質,過去の経験など,アルゴリズム決定過程を駆動する要因の総括的記述を提供する。
FaMSeCでは、自己自信指標はマルコフ決定プロセスのような確率的意思決定アルゴリズムの幅広いクラスに埋め込まれた階層的な「確率問題解決統計」から導かれる。
本発明の問題解決統計は、情報提供者(例えば、専門家でないユーザまたはエキスパートシステム設計者)によって、各意思決定能力要因に規定される所定の能力基準に対する確率的超越マージンを評価して評価することにより得られる。
このアプローチにより、人間の解釈可能な能力自己評価レポートを通じて、多様な自律エージェントの設計に「適合のアルゴリズム的良さ」の評価を組み込むことができる。
マルコフ決定プロセスエージェントの詳細な説明とアプリケーションの実行例は、メタユーティリティ関数、行動シミュレーション、代理予測モデルを用いて、2つのFMSeC因子(アウトカムアセスメントと問題解決の質)を現実的に計算し、可能なタスクコンテキストに対してレポートする方法を示している。
関連論文リスト
- Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Evaluating Explainability in Machine Learning Predictions through Explainer-Agnostic Metrics [0.0]
我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - The Meta-Evaluation Problem in Explainable AI: Identifying Reliable
Estimators with MetaQuantus [10.135749005469686]
説明可能なAI(XAI)分野における未解決課題の1つは、説明方法の品質を最も確実に見積もる方法を決定することである。
我々は、XAIの異なる品質推定器のメタ評価を通じてこの問題に対処する。
我々の新しいフレームワークMetaQuantusは、品質推定器の2つの相補的な性能特性を解析する。
論文 参考訳(メタデータ) (2023-02-14T18:59:02Z) - On solving decision and risk management problems subject to uncertainty [91.3755431537592]
不確実性は意思決定とリスク管理において広範囲にわたる課題である。
本稿では,このような戦略を体系的に理解し,その適用範囲を判断し,それらをうまく活用するための枠組みを開発する。
論文 参考訳(メタデータ) (2023-01-18T19:16:23Z) - Uncertainty-Driven Action Quality Assessment [67.20617610820857]
本稿では,複数の判定スコアの多様性を捉えるために,不確実性駆動型AQA (UD-AQA) という新しい確率モデルを提案する。
我々は,AQA回帰損失の再重み付けに使用される各予測の不確かさを推定する。
提案手法は,オリンピックイベントMTL-AQAとFineDivingの3つのベンチマークと,手術スキルJIGSAWSデータセットの3つのベンチマークで比較結果を得た。
論文 参考訳(メタデータ) (2022-07-29T07:21:15Z) - A Factor-Based Framework for Decision-Making Competency Self-Assessment [1.3670071336891754]
我々は,機械的自己自信の観点から,簡潔な人間理解能力の自己評価を生成するための枠組みを開発する。
アルゴリズム計画のための確率論的メタ推論と不確実性の下での意思決定のいくつかの側面を組み合わせて、新しい一般化可能な自己自信因子のセットに到達する。
論文 参考訳(メタデータ) (2022-03-22T18:19:10Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Ensemble Quantile Networks: Uncertainty-Aware Reinforcement Learning
with Applications in Autonomous Driving [1.6758573326215689]
強化学習は、自律運転のための意思決定エージェントを作成するために使用できる。
これまでのアプローチではブラックボックスソリューションのみを提供しており、エージェントがその決定に対する自信について情報を提供していない。
本稿では,分布RLとアンサンブルアプローチを組み合わせて完全不確実性推定を行うEnsemble Quantile Networks (EQN)法を提案する。
論文 参考訳(メタデータ) (2021-05-21T10:36:16Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Dirichlet uncertainty wrappers for actionable algorithm accuracy
accountability and auditability [0.5156484100374058]
本研究では,不確実性の尺度を用いて出力予測を充実させるラッパーを提案する。
結果の不確実性に基づいて、より確実な予測を選択する拒絶制度を提唱する。
その結果,ラッパーが計算した不確実性の有効性が示された。
論文 参考訳(メタデータ) (2019-12-29T11:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。