論文の概要: Harnessing Explanations to Bridge AI and Humans
- arxiv url: http://arxiv.org/abs/2003.07370v1
- Date: Mon, 16 Mar 2020 18:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 02:37:38.132536
- Title: Harnessing Explanations to Bridge AI and Humans
- Title(参考訳): AIと人間を橋渡しするハーネス
- Authors: Vivian Lai, Samuel Carton, Chenhao Tan
- Abstract要約: 機械学習モデルは、リシビズム予測や医療診断といった社会的に重要な応用にますます統合されている。
本稿では,説明の有効性と人的パフォーマンス向上のギャップを埋めるための今後の方向性を提案する。
- 参考スコア(独自算出の注目度): 14.354362614416285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are increasingly integrated into societally critical
applications such as recidivism prediction and medical diagnosis, thanks to
their superior predictive power. In these applications, however, full
automation is often not desired due to ethical and legal concerns. The research
community has thus ventured into developing interpretable methods that explain
machine predictions. While these explanations are meant to assist humans in
understanding machine predictions and thereby allowing humans to make better
decisions, this hypothesis is not supported in many recent studies. To improve
human decision-making with AI assistance, we propose future directions for
closing the gap between the efficacy of explanations and improvement in human
performance.
- Abstract(参考訳): 機械学習モデルは、その優れた予測能力のおかげで、レシディビズム予測や医療診断のような社会的に重要な応用にますます統合されている。
しかし、これらのアプリケーションでは、倫理的および法的懸念のため、完全な自動化は望まないことが多い。
研究コミュニティは、機械の予測を説明する解釈可能な方法の開発に力を入れている。
これらの説明は、人間が機械の予測を理解するのを助けることを目的としているが、最近の多くの研究では、この仮説は支持されていない。
ai支援による人的意思決定を改善するために,説明の有効性と人的パフォーマンスの改善とのギャップを埋めるための今後の方向性を提案する。
関連論文リスト
- Utilizing Human Behavior Modeling to Manipulate Explanations in AI-Assisted Decision Making: The Good, the Bad, and the Scary [19.884253335528317]
AIモデルの最近の進歩は、人間の意思決定プロセスへのAIベースの意思決定支援の統合を高めている。
AIによる意思決定の可能性を完全に解き放つために、研究者たちは、人間がAIレコメンデーションを最終決定にどのように組み込むかをコンピュータでモデル化した。
より適切にAIレコメンデーションに頼れるように、人間の意思決定者にAIの説明を提供することは、一般的な慣習となっている。
論文 参考訳(メタデータ) (2024-11-02T18:33:28Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Role of Human-AI Interaction in Selective Prediction [20.11364033416315]
我々は、AIシステムの遅延決定について、異なる種類の情報を人間に伝達する影響について研究する。
我々は,AIの予測は明らかにせず,遅延する決定を人間に伝えることで,人間のパフォーマンスを大幅に向上させることが可能であることを示す。
論文 参考訳(メタデータ) (2021-12-13T16:03:13Z) - Drivers' Manoeuvre Modelling and Prediction for Safe HRI [0.0]
心の理論は、ロボット工学や、最近は自律車や半自律車のために広く研究されている。
本研究では、人間の動き、車の状態、人間の入力からのデータを組み合わせることで、行動の前に人間の意図を予測する方法について検討した。
論文 参考訳(メタデータ) (2021-06-03T10:07:55Z) - Enhancing Human-Machine Teaming for Medical Prognosis Through Neural
Ordinary Differential Equations (NODEs) [0.0]
医学的診断における機械学習の可能性を完全に実現するための重要な障壁は、テクノロジーの受容である。
説明可能なAI(XAI)を作成するための最近の取り組みは、いくつかのMLモデルの解釈可能性を改善するために進歩している。
本稿では,人間の理解を高め,受容性を促進する新しいMLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-02-08T10:52:23Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。