論文の概要: Towards Integrating Personal Knowledge into Test-Time Predictions
- arxiv url: http://arxiv.org/abs/2406.08636v1
- Date: Wed, 12 Jun 2024 20:47:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 22:07:36.913811
- Title: Towards Integrating Personal Knowledge into Test-Time Predictions
- Title(参考訳): テストタイム予測への個人的知識の統合に向けて
- Authors: Isaac Lage, Sonali Parbhoo, Finale Doshi-Velez,
- Abstract要約: 機械学習モデルは、大量のデータに基づいて決定を下すことができるが、誰が予測されたかという個人的知識を欠く可能性がある。
本研究では、ドメイン知識のないユーザからの重要な個人知識をML予測に組み込む方法として、ヒューマン機能統合の問題を紹介する。
- 参考スコア(独自算出の注目度): 23.303750906345844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) models can make decisions based on large amounts of data, but they can be missing personal knowledge available to human users about whom predictions are made. For example, a model trained to predict psychiatric outcomes may know nothing about a patient's social support system, and social support may look different for different patients. In this work, we introduce the problem of human feature integration, which provides a way to incorporate important personal-knowledge from users without domain expertise into ML predictions. We characterize this problem through illustrative user stories and comparisons to existing approaches; we formally describe this problem in a way that paves the ground for future technical solutions; and we provide a proof-of-concept study of a simple version of a solution to this problem in a semi-realistic setting.
- Abstract(参考訳): 機械学習(ML)モデルは、大量のデータに基づいて決定を下すことができるが、誰が予測されたかという人間の個人的知識を欠く可能性がある。
例えば、精神医学的な結果を予測するために訓練されたモデルは、患者の社会的サポートシステムについて何も知らないかもしれないし、異なる患者に対して社会的サポートが異なるように見えるかもしれない。
本研究では、ドメイン知識のないユーザからの重要な個人知識をML予測に組み込む方法として、ヒューマン機能統合の問題を紹介する。
我々は、この問題を、説明的なユーザストーリーと既存のアプローチとの比較を通じて特徴付け、この問題を将来の技術的解決の基盤となる方法で正式に記述し、半現実的な設定で、この問題に対するソリューションのシンプルなバージョンに関する概念実証研究を提供する。
関連論文リスト
- Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Modeling Uncertainty in Personalized Emotion Prediction with Normalizing
Flows [6.32047610997385]
本研究では,条件付き正規化フローを用いて予測の不確かさを捉える新しい手法を提案する。
感情認識とヘイトスピーチを含む3つの主観的NLP課題に対して,本手法の有効性を検証した。
開発した手法によって得られた情報により,従来の手法を超越したハイブリッドモデルの構築が可能となった。
論文 参考訳(メタデータ) (2023-12-10T23:21:41Z) - Human Uncertainty in Concept-Based AI Systems [37.82747673914624]
概念に基づくAIシステムのコンテキストにおける人間の不確実性について検討する。
不確実な概念ラベルによるトレーニングは、概念ベースシステムにおける弱点を軽減するのに役立つ可能性がある。
論文 参考訳(メタデータ) (2023-03-22T19:17:57Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - A Human-Centric Take on Model Monitoring [23.006624840045554]
実世界のアプリケーションにおいて、モデル監視のための様々な人間中心の課題と要件を特定します。
モデルモニタリングシステムの必要性と課題は,モニタリングが結果に与える影響を明らかにすることである。
論文 参考訳(メタデータ) (2022-06-06T19:47:29Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Enhancing Human-Machine Teaming for Medical Prognosis Through Neural
Ordinary Differential Equations (NODEs) [0.0]
医学的診断における機械学習の可能性を完全に実現するための重要な障壁は、テクノロジーの受容である。
説明可能なAI(XAI)を作成するための最近の取り組みは、いくつかのMLモデルの解釈可能性を改善するために進歩している。
本稿では,人間の理解を高め,受容性を促進する新しいMLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-02-08T10:52:23Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。