論文の概要: Hierarchical Decision Ensembles- An inferential framework for uncertain
Human-AI collaboration in forensic examinations
- arxiv url: http://arxiv.org/abs/2111.01131v1
- Date: Sun, 31 Oct 2021 08:07:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 03:02:06.601679
- Title: Hierarchical Decision Ensembles- An inferential framework for uncertain
Human-AI collaboration in forensic examinations
- Title(参考訳): 階層的決定アンサンブル-法医学検査における不確実な人間-AI協調のための推論枠組み
- Authors: Ganesh Krishnan, Heike Hofmann
- Abstract要約: モデルとその出力を評価するための推論フレームワークを提案する。
このフレームワークは、ドメイン固有の知識と予測モデル結果のギャップを埋めることによって、法医学の専門家への信頼を校正するように設計されている。
- 参考スコア(独自算出の注目度): 0.8122270502556371
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Forensic examination of evidence like firearms and toolmarks, traditionally
involves a visual and therefore subjective assessment of similarity of two
questioned items. Statistical models are used to overcome this subjectivity and
allow specification of error rates. These models are generally quite complex
and produce abstract results at different levels of the analysis. Presenting
such metrics and complicated results to examiners is challenging, as examiners
generally do not have substantial statistical training to accurately interpret
results. This creates distrust in statistical modelling and lowers the rate of
acceptance of more objective measures that the discipline at large is striving
for. We present an inferential framework for assessing the model and its
output. The framework is designed to calibrate trust in forensic experts by
bridging the gap between domain specific knowledge and predictive model
results, allowing forensic examiners to validate the claims of the predictive
model while critically assessing results.
- Abstract(参考訳): 銃器やツールマークのような証拠の法医学的検証は、伝統的に2つの質問事項の類似性に関する視覚的かつ主観的な評価を伴う。
統計モデルは、この主観性を克服し、エラー率の指定を可能にするために使用される。
これらのモデルは概して非常に複雑であり、分析の異なるレベルで抽象的な結果を生み出す。
このような測定値や複雑な結果を検査者に提示することは困難であり、検査官は結果を正確に解釈するための実質的な統計訓練を持っていない。
これは統計モデリングにおける不信を生じさせ、より大きな分野が求めているより客観的な尺度の受け入れ率を低下させる。
モデルとその出力を評価するための推論フレームワークを提案する。
このフレームワークは、ドメイン固有の知識と予測モデル結果のギャップを埋めることによって、鑑識専門家の信頼を調整し、鑑識者が予測モデルのクレームを批判的に評価しながら検証できるようにするように設計されている。
関連論文リスト
- The BRAVO Semantic Segmentation Challenge Results in UNCV2024 [68.20197719071436]
我々は,(1)モデルが様々な摂動にさらされたときの精度とキャリブレーションを反映したセマンティック信頼性,(2)トレーニング中に未知のオブジェクトクラスを検出する能力を測定するOOD信頼性の2つのカテゴリを定義した。
その結果、大規模事前学習と最小限のアーキテクチャ設計が、堅牢で信頼性の高いセマンティックセグメンテーションモデルを開発する上で重要であるという興味深い洞察が浮かび上がっている。
論文 参考訳(メタデータ) (2024-09-23T15:17:30Z) - A View on Out-of-Distribution Identification from a Statistical Testing Theory Perspective [0.24578723416255752]
本研究では,教師なしおよび教師なしの学習コンテキストにおいて,テスト時間におけるOODサンプルを効率的に検出する問題について検討する。
我々は,OOD問題を統計的検定のレンズで再定式化し,OOD問題を統計的に特定可能な条件について議論する。
論文 参考訳(メタデータ) (2024-05-05T21:06:07Z) - Reliability and Interpretability in Science and Deep Learning [0.0]
この記事では、従来の科学的モデルとDeep Neural Network(DNN)モデルの比較に焦点を当てる。
DNNモデルの複雑さは、その信頼性と長期的進歩の予測を妨げていると論じている。
また、解釈可能性が、統計分析だけでは理解できないあらゆるモデルの信頼性を評価するための前提条件であることも明らかにした。
論文 参考訳(メタデータ) (2024-01-14T20:14:07Z) - A Comprehensive Evaluation and Analysis Study for Chinese Spelling Check [53.152011258252315]
音声とグラフィックの情報を合理的に使用することは,中国語のスペルチェックに有効であることを示す。
モデルはテストセットのエラー分布に敏感であり、モデルの欠点を反映している。
一般的なベンチマークであるSIGHANは、モデルの性能を確実に評価できない。
論文 参考訳(メタデータ) (2023-07-25T17:02:38Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - A Comparative Study of Faithfulness Metrics for Model Interpretability
Methods [3.7200349581269996]
診断性と時間的複雑さという2つの評価次元を導入する。
実験結果によると, 充足度と包括度は, 他の忠実度よりも診断性が高く, 時間的複雑さも低いことがわかった。
論文 参考訳(メタデータ) (2022-04-12T04:02:17Z) - Unveiling Project-Specific Bias in Neural Code Models [20.131797671630963]
大規模言語モデル(LLM)ベースのニューラルネットワークモデルは、実際のプロジェクト間アウトオブディストリビューション(OOD)データに効果的に一般化するのに苦労することが多い。
この現象は, 地中真実の証拠ではなく, プロジェクト固有のショートカットによる予測に大きく依存していることが示唆された。
サンプル間の潜在論理関係を利用してモデルの学習行動を規則化する新しいバイアス緩和機構を提案する。
論文 参考訳(メタデータ) (2022-01-19T02:09:48Z) - Causality and Generalizability: Identifiability and Learning Methods [0.0]
この論文は、因果効果の推定、因果構造学習、および分布的に堅牢な予測方法に関する研究領域に寄与する。
本稿では,データ依存平均二乗予測誤差正規化を用いた機器変数設定における線形・非線形因果関係推定器について述べる。
本稿では,介入誘起分布に関する分布ロバスト性に関する一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-10-04T13:12:11Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。