論文の概要: Learning Human-Compatible Representations for Case-Based Decision
Support
- arxiv url: http://arxiv.org/abs/2303.04809v1
- Date: Mon, 6 Mar 2023 19:04:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 17:26:40.851673
- Title: Learning Human-Compatible Representations for Case-Based Decision
Support
- Title(参考訳): ケースベース意思決定支援のための人間互換表現の学習
- Authors: Han Liu, Yizhou Tian, Chacha Chen, Shi Feng, Yuxin Chen, Chenhao Tan
- Abstract要約: アルゴリズムケースベースの意思決定サポートは、予測されたラベルを理解するのに役立つ例を提供する。
人間と互換性のある表現は、人間によってより類似していると見なされる最も近い隣人を特定する。
- 参考スコア(独自算出の注目度): 36.01560961898229
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Algorithmic case-based decision support provides examples to help human make
sense of predicted labels and aid human in decision-making tasks. Despite the
promising performance of supervised learning, representations learned by
supervised models may not align well with human intuitions: what models
consider as similar examples can be perceived as distinct by humans. As a
result, they have limited effectiveness in case-based decision support. In this
work, we incorporate ideas from metric learning with supervised learning to
examine the importance of alignment for effective decision support. In addition
to instance-level labels, we use human-provided triplet judgments to learn
human-compatible decision-focused representations. Using both synthetic data
and human subject experiments in multiple classification tasks, we demonstrate
that such representation is better aligned with human perception than
representation solely optimized for classification. Human-compatible
representations identify nearest neighbors that are perceived as more similar
by humans and allow humans to make more accurate predictions, leading to
substantial improvements in human decision accuracies (17.8% in butterfly vs.
moth classification and 13.2% in pneumonia classification).
- Abstract(参考訳): アルゴリズムによるケースベースの意思決定サポートは、予測ラベルの理解を助け、意思決定タスクにおいて人間を助けるサンプルを提供する。
教師付き学習の有望な性能にもかかわらず、教師付きモデルによって学習された表現は人間の直観とうまく一致しないかもしれない。
その結果、ケースベースの意思決定サポートでは効果が限られている。
本研究では,メトリクス学習のアイデアを教師付き学習に取り入れ,効果的な意思決定支援のためのアライメントの重要性を検討する。
事例レベルラベルに加えて、人間が提供する三重項判定を用いて、人間互換の意思決定中心の表現を学習する。
複数の分類タスクにおいて、合成データと人体実験の両方を用いて、そのような表現は、分類にのみ最適化された表現よりも、人間の知覚と整合していることを示す。
人間と互換性のある表現は、人間により類似していると認識され、より正確な予測を可能にする最も近い隣人を識別し、ヒトの意思決定能力が大幅に向上した(蝶の分類では17.8%、モト分類では13.2%、肺炎の分類では13.2%)。
関連論文リスト
- Learning to Assist Humans without Inferring Rewards [65.28156318196397]
我々は、エンパワーメントのレンズを通して支援を研究する先行研究に基づいて構築する。
補助剤は、人間の行動の影響を最大化することを目的としている。
これらの表現は、先行研究と類似したエンパワーメントの概念を推定する。
論文 参考訳(メタデータ) (2024-11-04T21:31:04Z) - Does AI help humans make better decisions? A statistical evaluation framework for experimental and observational studies [0.43981305860983716]
我々は、人間とAI、AIの3つの代替意思決定システムのパフォーマンスを比較する方法を示す。
リスクアセスメントの勧告は、現金保釈を課す裁判官の決定の分類精度を向上しないことがわかった。
論文 参考訳(メタデータ) (2024-03-18T01:04:52Z) - Decision Theoretic Foundations for Experiments Evaluating Human Decisions [18.27590643693167]
我々は、人間のパフォーマンスの損失をバイアスの形で評価するためには、合理的なエージェントが実用性を最大化する決定を識別する必要があるという情報を参加者に提供する必要があると論じる。
実演として,AIによる意思決定に関する文献からの意思決定の評価が,これらの基準をどの程度達成したかを評価する。
論文 参考訳(メタデータ) (2024-01-25T16:21:37Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Ground(less) Truth: A Causal Framework for Proxy Labels in
Human-Algorithm Decision-Making [29.071173441651734]
人間のAI意思決定タスクにおけるプロキシラベルの有効性に影響を与える5つの変数バイアス源を同定する。
各バイアス間の関係を乱すための因果的枠組みを開発する。
今後の研究において、ターゲット変数バイアスに対処する機会について論じる。
論文 参考訳(メタデータ) (2023-02-13T16:29:11Z) - Taking Advice from (Dis)Similar Machines: The Impact of Human-Machine
Similarity on Machine-Assisted Decision-Making [11.143223527623821]
本研究では,人間と機械のエラーの類似性が,アルゴリズムによる意思決定支援に対する人間の認識と相互作用に与える影響について検討する。
i)人々は、(i)より類似した意思決定支援をより有用で、正確で、予測可能であると認識し、(ii)人々は、より類似した意思決定支援からの反対のアドバイスを受ける傾向にある。
論文 参考訳(メタデータ) (2022-09-08T13:50:35Z) - What I Cannot Predict, I Do Not Understand: A Human-Centered Evaluation
Framework for Explainability Methods [6.232071870655069]
本研究では,実世界のシナリオにおける個人帰属手法の実践的有用性について,説明可能性手法の評価に使用する理論的尺度が不十分であることを示す。
この結果から,より優れた説明可能性手法を開発し,人間中心評価手法を展開させる上で重要な必要性が示唆された。
論文 参考訳(メタデータ) (2021-12-06T18:36:09Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Differentiable Multi-Granularity Human Representation Learning for
Instance-Aware Human Semantic Parsing [131.97475877877608]
カテゴリーレベルの人間のセマンティックセグメンテーションとマルチパーソンポーズ推定を共同およびエンドツーエンドで学習するために,新たなボトムアップ方式を提案する。
さまざまな人間の粒度にわたって構造情報を利用する、コンパクトで効率的で強力なフレームワークです。
3つのインスタンス認識型ヒューマンデータセットの実験は、我々のモデルがより効率的な推論で他のボトムアップの代替案よりも優れていることを示している。
論文 参考訳(メタデータ) (2021-03-08T06:55:00Z) - Action similarity judgment based on kinematic primitives [48.99831733355487]
運動学に基づく計算モデルが動作類似性を決定する範囲について検討する。
選択されたモデルは、発達ロボティクスにルーツを持ち、学習されたキネマティックプリミティブに基づいて行動分類を行う。
その結果, 動作類似性タスクにおいて, モデルと人的性能の双方が, 運動レベルの特徴に基づく精度が高いことがわかった。
論文 参考訳(メタデータ) (2020-08-30T13:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。