論文の概要: AI Epidemiology: achieving explainable AI through expert oversight patterns
- arxiv url: http://arxiv.org/abs/2512.15783v1
- Date: Mon, 15 Dec 2025 11:29:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.704996
- Title: AI Epidemiology: achieving explainable AI through expert oversight patterns
- Title(参考訳): AI疫学:専門家の監視パターンを通じて説明可能なAIを実現する
- Authors: Kit Tempest-Walters,
- Abstract要約: AI疫学(AI Epidemiology)は、先進的なAIシステムの管理と説明のためのフレームワークである。
これは疫学者が統計的証拠を通じて公衆衛生の介入を可能にする方法を反映している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI Epidemiology is a framework for governing and explaining advanced AI systems by applying population-level surveillance methods to AI outputs. The approach mirrors the way in which epidemiologists enable public health interventions through statistical evidence before molecular mechanisms are understood. This bypasses the problem of model complexity which plagues current interpretability methods (such as SHAP and mechanistic interpretability) at the scale of deployed models. AI Epidemiology achieves this population-level surveillance by standardising capture of AI-expert interactions into structured assessment fields: risk level, alignment score, and accuracy score. These function as exposure variables which predict output failure through statistical associations, much like cholesterol and blood pressure act as exposure variables predicting cardiac events. Output-failure associations are subsequently validated against expert overrides and real-world outcomes. The framework places zero burden on experts and provides automatic audit trails by passively tracking expert convergence and divergence with AI recommendations. Since it analyses outputs rather than internal model computations, it also provides governance continuity when institutions update models and switch vendors. Finally, by providing reliability scores and semantic assessments (e.g. 'this recommendation resembles 500 cases overridden by experts due to guideline violations'), it enables experts and institutions to detect unreliable AI outputs before they cause harm. This democratises AI oversight by enabling domain experts to govern AI systems without requiring machine learning expertise.
- Abstract(参考訳): AI疫学(AI Epidemiology)は、AI出力に人口レベルの監視手法を適用することにより、高度なAIシステムの管理と説明を行うためのフレームワークである。
このアプローチは、分子機構が理解される前の統計的証拠を通じて、疫学者が公衆の健康介入を可能にする方法を反映している。
このことは、デプロイされたモデルの規模で現在の解釈可能性(SHAPや機械的解釈可能性など)を悩ませるモデル複雑性の問題を回避している。
AI疫学は、リスクレベル、アライメントスコア、精度スコアといった構造化された評価分野へのAI-専門的相互作用のキャプチャーを標準化することで、この集団レベルの監視を実現する。
これらは、コレステロールや血圧のように、統計的に相関して出力障害を予測する露光変数として機能し、心臓の事象を予測する露光変数として機能する。
アウトプット・フェールアソシエーションはその後、専門家のオーバーライドや現実世界の成果に対して検証される。
このフレームワークは、専門家の負担をゼロにし、専門家の収束とAIレコメンデーションとの相違を受動的に追跡することで、自動監査パスを提供する。
内部モデル計算よりもアウトプットを分析するため、組織がモデルを更新し、ベンダーを切り替える際には、ガバナンスの継続性も提供する。
最後に、信頼性スコアとセマンティックアセスメントを提供することによって(例:「ガイドライン違反により専門家が過大評価した500件に類似している」)、専門家や機関が危害を加える前に信頼できないAI出力を検出することができる。
これにより、ドメインの専門家が機械学習の専門知識を必要とせずにAIシステムを管理できるようになる。
関連論文リスト
- Toward Quantitative Modeling of Cybersecurity Risks Due to AI Misuse [50.87630846876635]
我々は9つの詳細なサイバーリスクモデルを開発する。
各モデルはMITRE ATT&CKフレームワークを使用して攻撃をステップに分解する。
個々の見積もりはモンテカルロシミュレーションによって集約される。
論文 参考訳(メタデータ) (2025-12-09T17:54:17Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Echoes of AI Harms: A Human-LLM Synergistic Framework for Bias-Driven Harm Anticipation [1.5892420496333068]
ECHOは、プロアクティブなAIハーネス予測のための新しいフレームワークである。
バイアス・ツー・ハーム経路の早期検出を可能にする。
2つのハイテイク領域におけるECHOの検証(診断と採用)
論文 参考訳(メタデータ) (2025-11-27T07:25:21Z) - Why can't Epidemiology be automated (yet)? [0.0]
既存のデータセットを用いて疫学課題の景観をマッピングする。
既存のAIツールが効率を向上する場所を特定します。
近年開発されたエージェントシステムは疫学的解析を設計・実行できるようになった。
論文 参考訳(メタデータ) (2025-07-21T13:41:52Z) - Automated Real-time Assessment of Intracranial Hemorrhage Detection AI Using an Ensembled Monitoring Model (EMM) [1.8767322781894276]
本稿では,複数の専門家レビューを用いた臨床コンセンサスプラクティスに触発されたEMM(Ensembled Monitoring Model)を紹介する。
EMMは内部AIコンポーネントや中間出力へのアクセスを必要とせずに独立して動作する。
EMMがAI生成予測の信頼度をうまく分類し、異なる行動を提案することを実証する。
論文 参考訳(メタデータ) (2025-05-16T22:50:42Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Progressing from Anomaly Detection to Automated Log Labeling and
Pioneering Root Cause Analysis [53.24804865821692]
本研究では、ログ異常の分類を導入し、ラベル付けの課題を軽減するために、自動ラベリングについて検討する。
この研究は、根本原因分析が異常検出に続く未来を予見し、異常の根本原因を解明する。
論文 参考訳(メタデータ) (2023-12-22T15:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。