論文の概要: A Bayesian Approach to Identifying Representational Errors
- arxiv url: http://arxiv.org/abs/2103.15171v1
- Date: Sun, 28 Mar 2021 16:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 08:21:37.338989
- Title: A Bayesian Approach to Identifying Representational Errors
- Title(参考訳): 表象的誤りを同定するベイズ的アプローチ
- Authors: Ramya Ramakrishnan, Vaibhav Unhelkar, Ece Kamar, Julie Shah
- Abstract要約: 本稿では,俳優の行動観察に基づく表現誤差推定のための生成モデルを提案する。
本手法は,強化学習エージェントと人間ユーザの両方の盲点を回復できることを示す。
- 参考スコア(独自算出の注目度): 19.539720986687524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trained AI systems and expert decision makers can make errors that are often
difficult to identify and understand. Determining the root cause for these
errors can improve future decisions. This work presents Generative Error Model
(GEM), a generative model for inferring representational errors based on
observations of an actor's behavior (either simulated agent, robot, or human).
The model considers two sources of error: those that occur due to
representational limitations -- "blind spots" -- and non-representational
errors, such as those caused by noise in execution or systematic errors present
in the actor's policy. Disambiguating these two error types allows for targeted
refinement of the actor's policy (i.e., representational errors require
perceptual augmentation, while other errors can be reduced through methods such
as improved training or attention support). We present a Bayesian inference
algorithm for GEM and evaluate its utility in recovering representational
errors on multiple domains. Results show that our approach can recover blind
spots of both reinforcement learning agents as well as human users.
- Abstract(参考訳): 訓練されたAIシステムと専門家の意思決定者は、しばしば識別と理解が難しいエラーを犯すことができる。
これらのエラーの根本原因を決定することは、将来の決定を改善することができる。
本研究は,俳優の行動(模擬エージェント,ロボット,人間)の観察に基づいて表現誤差を推定する生成モデルである生成誤差モデル(gem)を提案する。
このモデルは2つのエラー源を考察している: 表現上の制限によって発生するもの -- "盲点" -- と、実行時のノイズやアクターのポリシーに存在する系統的エラーなど、非表現的エラーである。
これら2つのエラータイプを曖昧にすることで、アクタのポリシー(つまり、表現エラーは知覚的な拡張を必要とするが、他のエラーはトレーニングの改善や注意支援といった方法によって削減できる)をターゲットとする改善が可能になる。
本稿では,GEMのベイズ推定アルゴリズムを提案し,複数の領域における表現誤りの回復にその有用性を評価する。
その結果,本手法は,強化学習エージェントとユーザの両方の盲点を回復できることがわかった。
関連論文リスト
- Automatic Discovery and Assessment of Interpretable Systematic Errors in Semantic Segmentation [0.5242869847419834]
本稿では,セグメンテーションモデルにおける体系的誤りを発見するための新しい手法を提案する。
マルチモーダル・ファンデーション・モデルを用いてエラーを検索し、誤った性質とともに概念的リンクを用いてこれらのエラーの体系的性質を研究する。
我々の研究は、これまでセマンティックセグメンテーションで過小評価されてきたモデル分析と介入への道を開く。
論文 参考訳(メタデータ) (2024-11-16T17:31:37Z) - Subtle Errors Matter: Preference Learning via Error-injected Self-editing [59.405145971637204]
eRror-Injected Self-Editing (RISE) と呼ばれる新しい好み学習フレームワークを提案する。
RISEは定義済みの微妙な誤りを正しい解の部分的なトークンに注入し、エラー軽減のためにハードペアを構築する。
RISEの有効性を検証する実験では、Qwen2-7B-Instructでは、GSM8Kでは3.0%、MATHでは7.9%が顕著に改善された。
論文 参考訳(メタデータ) (2024-10-09T07:43:38Z) - Unveiling AI's Blind Spots: An Oracle for In-Domain, Out-of-Domain, and Adversarial Errors [4.525077884001726]
我々は、他のモデルのエラーを予測するために設計されたディープニューラルネットワークであるmentorモデルを用いて、経験的評価を行う。
われわれはSuperMentorと呼ばれる,エラーの予測精度を78%向上する"オークル"メンターモデルを開発した。
論文 参考訳(メタデータ) (2024-10-03T11:02:39Z) - A Coin Has Two Sides: A Novel Detector-Corrector Framework for Chinese Spelling Correction [79.52464132360618]
中国語のSpelling Correction(CSC)は、自然言語処理(NLP)の基本課題である。
本稿では,エラー検出・相関器の枠組みに基づく新しい手法を提案する。
我々の検出器は2つのエラー検出結果を得るように設計されており、それぞれ高精度とリコールが特徴である。
論文 参考訳(メタデータ) (2024-09-06T09:26:45Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Accountable Error Characterization [7.830479195591646]
エラーの発生時期と発生場所を理解するために,説明責任あるエラー評価手法 AEC を提案する。
AECを用いた感情分析タスクの誤り検出をケーススタディとして実施します。
論文 参考訳(メタデータ) (2021-05-10T23:40:01Z) - Neural Text Generation with Artificial Negative Examples [7.187858820534111]
強化学習フレームワークでテキスト生成モデルを訓練することにより,任意のタイプのエラーを抑制することを提案する。
我々は、目標となるタイプのエラーを含む参照と文を識別できる訓練可能な報酬関数を使用する。
実験の結果,生成誤差の抑制と2つの機械翻訳と2つの画像キャプションタスクの大幅な改善を達成できることが示された。
論文 参考訳(メタデータ) (2020-12-28T07:25:10Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z) - A Unified Weight Learning and Low-Rank Regression Model for Robust
Complex Error Modeling [12.287346997617542]
回帰ベースのエラーモデルにおける最も重要な問題の1つは、画像の様々な汚職環境変化に起因する複雑な表現誤差をモデル化することである。
本稿では,画像中のランダムノイズを同時に扱えるような,統一的な重み学習と低ランク近似回帰モデルを提案する。
論文 参考訳(メタデータ) (2020-05-10T09:50:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。