論文の概要: A Conceptual Framework for Establishing Trust in Real World Intelligent
Systems
- arxiv url: http://arxiv.org/abs/2104.05432v1
- Date: Mon, 12 Apr 2021 12:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:23:37.084060
- Title: A Conceptual Framework for Establishing Trust in Real World Intelligent
Systems
- Title(参考訳): 実世界知能システムにおける信頼の確立のための概念的枠組み
- Authors: Michael Guckert, Nils Gumpfer, Jennifer Hannig, Till Keller and Neil
Urquhart
- Abstract要約: アルゴリズムの信頼は、ユーザーがシステムと対話できるようにすることで確立できます。
アルゴリズム結果に対するドメインの人間の理解の特徴とパターンを反映することで、そのようなパターンに対する認識を生み出すことができる。
閉じた検査を使用して、ソリューションが期待に合致するかどうか、または期待を超えるかどうかを判断できます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent information systems that contain emergent elements often
encounter trust problems because results do not get sufficiently explained and
the procedure itself can not be fully retraced. This is caused by a control
flow depending either on stochastic elements or on the structure and relevance
of the input data. Trust in such algorithms can be established by letting users
interact with the system so that they can explore results and find patterns
that can be compared with their expected solution. Reflecting features and
patterns of human understanding of a domain against algorithmic results can
create awareness of such patterns and may increase the trust that a user has in
the solution. If expectations are not met, close inspection can be used to
decide whether a solution conforms to the expectations or whether it goes
beyond the expected. By either accepting or rejecting a solution, the user's
set of expectations evolves and a learning process for the users is
established. In this paper we present a conceptual framework that reflects and
supports this process. The framework is the result of an analysis of two
exemplary case studies from two different disciplines with information systems
that assist experts in their complex tasks.
- Abstract(参考訳): 創発的要素を含むインテリジェントな情報システムは、結果が十分に説明されず、手続き自体が完全に再追跡できないため、しばしば信頼の問題に直面する。
これは、確率要素または入力データの構造と関連性の両方に依存する制御フローによって引き起こされる。
このようなアルゴリズムの信頼性は、ユーザがシステムと対話して結果を探索し、期待されるソリューションと比較できるパターンを見つけることによって確立できる。
アルゴリズム的な結果に対するドメインの人間的理解の特徴やパターンを反映すると、そのようなパターンに対する認識が生まれ、ユーザがソリューションに持つ信頼が高まる可能性がある。
期待が満たされない場合は、ソリューションが期待に合致するかどうか、あるいは期待を超えるかどうかを綿密な検査で判断することができる。
ソリューションを受け入れるか拒否するかによって、ユーザの期待セットが進化し、ユーザのための学習プロセスが確立される。
本稿では,このプロセスを反映し,サポートする概念的枠組みを提案する。
この枠組みは、2つの異なる分野の事例分析と、複雑なタスクのエキスパートを支援する情報システムの分析の結果である。
関連論文リスト
- Discovering Decision Manifolds to Assure Trusted Autonomous Systems [0.0]
本稿では,システムが提示できる正誤応答の範囲を最適化した探索手法を提案する。
この多様体は、従来のテストやモンテカルロシミュレーションよりもシステムの信頼性をより詳細に理解する。
この概念実証では,本手法を自動運転車のループ内ソフトウェア評価に適用する。
論文 参考訳(メタデータ) (2024-02-12T16:55:58Z) - TELLER: A Trustworthy Framework for Explainable, Generalizable and Controllable Fake News Detection [37.394874500480206]
本稿では,モデルの説明可能性,一般化性,制御性を重視した,信頼に値する偽ニュース検出のための新しいフレームワークを提案する。
これは認知と意思決定システムを統合するデュアルシステムフレームワークによって実現される。
提案手法の有効性と信頼性を実証し,4つのデータセットに対する総合的な評価結果を示す。
論文 参考訳(メタデータ) (2024-02-12T16:41:54Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - VISPUR: Visual Aids for Identifying and Interpreting Spurious
Associations in Data-Driven Decisions [8.594140167290098]
シンプソンのパラドックス(シンプソンのパラドックス、英: paradox)は、集合とサブグループレベルの関連が互いに矛盾する現象である。
既存のツールは、人間が実際に急激な協会の落とし穴を見つけ、推論し、防ぐための洞察をほとんど提供しない。
本稿では、因果解析フレームワークと人間中心のワークフローを提供する視覚分析システムであるVISPURを提案する。
論文 参考訳(メタデータ) (2023-07-26T18:40:07Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Examining the Impact of Algorithm Awareness on Wikidata's Recommender
System Recoin [12.167153941840958]
Wikidata のガジェットである Recoin のレコメンデータシステムとして MTurk を用いた 105 人の参加者によるオンライン実験を行った。
私たちの発見は、インタラクティブな再設計において、アルゴリズムシステムにおける理解と信頼の正の相関を含む。
以上の結果から,アルゴリズム認識の実証研究において,理解,公正性,正確性,信頼の尺度がまだ徹底していないことが示唆された。
論文 参考訳(メタデータ) (2020-09-18T20:06:53Z) - Dirichlet uncertainty wrappers for actionable algorithm accuracy
accountability and auditability [0.5156484100374058]
本研究では,不確実性の尺度を用いて出力予測を充実させるラッパーを提案する。
結果の不確実性に基づいて、より確実な予測を選択する拒絶制度を提唱する。
その結果,ラッパーが計算した不確実性の有効性が示された。
論文 参考訳(メタデータ) (2019-12-29T11:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。