論文の概要: A Factor-Based Framework for Decision-Making Competency Self-Assessment
- arxiv url: http://arxiv.org/abs/2203.11981v1
- Date: Tue, 22 Mar 2022 18:19:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 16:31:53.572356
- Title: A Factor-Based Framework for Decision-Making Competency Self-Assessment
- Title(参考訳): 意思決定能力評価のための因子ベースフレームワーク
- Authors: Brett W. Israelsen, Nisar Ahmed
- Abstract要約: 我々は,機械的自己自信の観点から,簡潔な人間理解能力の自己評価を生成するための枠組みを開発する。
アルゴリズム計画のための確率論的メタ推論と不確実性の下での意思決定のいくつかの側面を組み合わせて、新しい一般化可能な自己自信因子のセットに到達する。
- 参考スコア(独自算出の注目度): 1.3670071336891754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We summarize our efforts to date in developing a framework for generating
succinct human-understandable competency self-assessments in terms of machine
self confidence, i.e. a robot's self-trust in its functional abilities to
accomplish assigned tasks. Whereas early work explored machine self-confidence
in ad hoc ways for niche applications, our Factorized Machine Self-Confidence
framework introduces and combines several aspects of probabilistic meta
reasoning for algorithmic planning and decision-making under uncertainty to
arrive at a novel set of generalizable self-confidence factors, which can
support competency assessment for a wide variety of problems.
- Abstract(参考訳): 我々は,ロボットが割り当てられたタスクを遂行する機能的能力において,ロボットの自己信頼という機械的自信の観点から,簡潔で理解しやすい能力の自己評価を実現するための枠組みを開発する上での取り組みを要約する。
私たちのFactized Machine Self-Confidenceフレームワークは、ニッチなアプリケーションのためのアドホックな方法でマシンの自己自信を探求する一方で、アルゴリズム計画のための確率的メタ推論と不確実性の下での意思決定のいくつかの側面を導入して、さまざまな問題に対する能力評価を支援する新しい一般化可能な自己自信因子のセットに到達します。
関連論文リスト
- The Impact and Feasibility of Self-Confidence Shaping for AI-Assisted Decision-Making [6.852960508141108]
本稿では,目標レベルにおける自己自信の校正を目的とした自己自信形成の介入について述べる。
我々は,AIの信頼度と信頼度を両立させることにより,自己自信形成が人間-AIチームのパフォーマンスを50%近く向上させることができることを示した。
感情と自己自信の関係は、感情を変えることが自己自信を形成するための実行可能な戦略になり得ることを示唆している。
論文 参考訳(メタデータ) (2025-02-20T06:55:41Z) - Autotelic Reinforcement Learning: Exploring Intrinsic Motivations for Skill Acquisition in Open-Ended Environments [1.104960878651584]
本稿では, 自己強化学習(RL)の概要を概観し, スキルレパートリーのオープンエンド形成における本質的モチベーションの役割を強調した。
知識ベースと能力ベースの本質的なモチベーションの区別を明確にし、これらの概念が自己定義目標を生成・追求できる自律エージェントの開発にどのように役立つかを説明する。
論文 参考訳(メタデータ) (2025-02-06T14:37:46Z) - Trustworthy and Explainable Decision-Making for Workforce allocation [5.329471304736775]
本稿では、労働力配分のための意思決定ツールの開発に焦点をあてた進行中のプロジェクトについて述べる。
私たちの目標は、スケジュールされたタスクへのチームの配置を最適化するだけでなく、その決定に対して明確で理解可能な説明を提供するシステムを作ることです。
このツールは、Human-in-the-loopメカニズムを組み込むことで、ユーザの信頼を高め、対話的なコンフリクト解決を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-13T16:46:13Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - "A Good Bot Always Knows Its Limitations": Assessing Autonomous System Decision-making Competencies through Factorized Machine Self-confidence [5.167803438665586]
Factorized Machine Self-confidence (FaMSeC)は、アルゴリズムによる意思決定プロセスを駆動する要因の全体的記述を提供する。
指標は、確率的意思決定アルゴリズムの幅広いクラスに埋め込まれた階層的な問題解決統計から導かれる。
FaMSeCは、アルゴリズムによる適合評価の良さを、様々な自律エージェントの設計に容易に組み込むことができる。
論文 参考訳(メタデータ) (2024-07-29T01:22:04Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Uncertainty Quantification for Competency Assessment of Autonomous
Agents [3.3517146652431378]
自律的なエージェントは 適切なレベルの信頼を 人から引き出す必要があります
信頼を構築する方法の1つは、エージェントに与えられたタスクを実行する能力を評価し、伝達させることである。
本稿では, 深部生成モデルのアンサンブルを用いて, エージェントの失語症およびてんかんの不確かさを定量化する方法について述べる。
論文 参考訳(メタデータ) (2022-06-21T17:35:13Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。