論文の概要: When normalization hallucinates: unseen risks in AI-powered whole slide image processing
- arxiv url: http://arxiv.org/abs/2512.07426v1
- Date: Mon, 08 Dec 2025 11:01:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.851194
- Title: When normalization hallucinates: unseen risks in AI-powered whole slide image processing
- Title(参考訳): 正規化が幻覚する時:AIによる全スライド画像処理における見当たらないリスク
- Authors: Karel Moens, Matthew B. Blaschko, Tinne Tuytelaars, Bart Diricx, Jonas De Vylder, Mustafa Yousif,
- Abstract要約: 幻覚の危険性は事実であり, 未承認であることを示す。
正規化出力における幻覚を自動的に検出する新しい画像比較尺度を提案する。
- 参考スコア(独自算出の注目度): 37.492300702561884
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Whole slide image (WSI) normalization remains a vital preprocessing step in computational pathology. Increasingly driven by deep learning, these models learn to approximate data distributions from training examples. This often results in outputs that gravitate toward the average, potentially masking diagnostically important features. More critically, they can introduce hallucinated content, artifacts that appear realistic but are not present in the original tissue, posing a serious threat to downstream analysis. These hallucinations are nearly impossible to detect visually, and current evaluation practices often overlook them. In this work, we demonstrate that the risk of hallucinations is real and underappreciated. While many methods perform adequately on public datasets, we observe a concerning frequency of hallucinations when these same models are retrained and evaluated on real-world clinical data. To address this, we propose a novel image comparison measure designed to automatically detect hallucinations in normalized outputs. Using this measure, we systematically evaluate several well-cited normalization methods retrained on real-world data, revealing significant inconsistencies and failures that are not captured by conventional metrics. Our findings underscore the need for more robust, interpretable normalization techniques and stricter validation protocols in clinical deployment.
- Abstract(参考訳): 全スライド画像(WSI)の正規化は、計算病理学において重要な前処理ステップである。
ディープラーニングによってますます駆動されるこれらのモデルは、トレーニング例からデータ分布を近似することを学ぶ。
この結果、診断上重要な特徴を隠蔽する可能性のある平均的な出力がしばしば発生する。
より重要なことに、彼らは幻覚された内容、現実的に見えるが元の組織には存在しない人工物を導入することができ、下流の分析に深刻な脅威を生じさせる。
これらの幻覚は視覚的に検出することはほぼ不可能であり、現在の評価慣行はしばしばそれらを見落としている。
本研究は,幻覚の危険性が本物であり,未承認であることを示す。
多くの手法が公開データセット上で適切に機能する一方で、これらのモデルが実世界の臨床データに基づいて再訓練され評価された場合、幻覚の発生頻度について観察する。
そこで本研究では,正規化出力における幻覚を自動的に検出する新しい画像比較尺度を提案する。
この尺度を用いて,実世界のデータで再学習したいくつかの有能な正規化手法を体系的に評価し,従来の指標では得られない重大な不整合と失敗を明らかにした。
本研究は, より堅牢で解釈可能な正規化技術と, より厳格な検証プロトコルの必要性を浮き彫りにした。
関連論文リスト
- HalluGen: Synthesizing Realistic and Controllable Hallucinations for Evaluating Image Restoration [8.702496582146042]
HalluGenは、現実的な幻覚を制御可能なタイプ、位置、重大さで合成する拡散ベースのフレームワークである。
我々は4,350個の注釈付き画像からなる最初の大規模幻覚データセットを構築した。
HalluGenとそのオープンデータセットは、安全クリティカルな画像復元における幻覚を評価するための、最初のスケーラブルな基盤を確立している。
論文 参考訳(メタデータ) (2025-12-03T01:20:00Z) - Counting Hallucinations in Diffusion Models [34.45858211220468]
拡散確率モデル(DPM)は、画像やビデオ合成などの生成タスクにおいて顕著な進歩を見せている。
彼らはしばしば、現実世界の知識と矛盾する幻覚的なサンプル(幻覚)を生産する。
その流行にもかかわらず、そのような幻覚を体系的に定量化するための実現可能な方法論の欠如は進歩を妨げている。
論文 参考訳(メタデータ) (2025-10-15T01:48:04Z) - SHALE: A Scalable Benchmark for Fine-grained Hallucination Evaluation in LVLMs [52.03164192840023]
LVLM(Large Vision-Language Models)は、いまだ幻覚に悩まされている。
本稿では,スケーラブルで制御可能で多様な評価データを生成する自動データ構築パイプラインを提案する。
我々は,忠実度と事実性幻覚の両方を評価するためのベンチマークであるSHALEを構築した。
論文 参考訳(メタデータ) (2025-08-13T07:58:01Z) - Analyzing and Mitigating Object Hallucination: A Training Bias Perspective [108.09666587800781]
我々は,LVLMのトレーニングデータから,特定の対象を隠蔽した反ファクト画像からなる新しいベンチマークPOPEv2を提案する。
現在のLVLMはトレーニングバイアスに悩まされており、トレーニングデータを完全に活用できず、トレーニング中に見られる画像に対してより頻繁に幻覚を与えることができません。
Obliviateは,学習バイアスアンラーニングによる物体幻覚の軽減を目的とした,効率的で軽量な未学習手法である。
論文 参考訳(メタデータ) (2025-08-06T15:51:02Z) - Two Is Better Than One: Aligned Representation Pairs for Anomaly Detection [56.57122939745213]
異常検出は、標準から逸脱するサンプルを特定することに焦点を当てる。
近年の自己教師型手法は, 異常に関する事前知識を用いて, トレーニング中に合成外れ値を生成することによって, それらの表現をうまく学習している。
この制限は、通常のサンプルにおける対称性に関する事前の知識を活用して、異なるコンテキストでデータを観測する、新しいアプローチであるCon$で対処する。
論文 参考訳(メタデータ) (2024-05-29T07:59:06Z) - Rapid Training Data Creation by Synthesizing Medical Images for
Classification and Localization [10.506584969668792]
本稿では,この問題を解決するために,任意のディープニューラルネットワークをトレーニングするための実データ変換手法を提案する。
弱教師付きモデルでは,生成したデータを用いて局所化精度が著しく向上することを示す。
後者のモデルでは、生成した画像でトレーニングされた精度は、完全に注釈付けされた実画像でトレーニングされた精度と密接に一致している。
論文 参考訳(メタデータ) (2023-08-09T03:49:12Z) - Artifact-Based Domain Generalization of Skin Lesion Models [20.792979998188848]
一般化評価とデバイアス化を可能にするために,アーティファクトアノテーションに依存するパイプラインを提案する。
我々は,皮膚病変のアーティファクトをベースとした環境を作成し,ドメインの一般化を可能にする。
以上の結果から,1つの側面にモデルを偏在させるだけでは,皮膚病変の公正な解析に十分ではないのではないか,という懸念が浮かび上がっている。
論文 参考訳(メタデータ) (2022-08-20T22:25:09Z) - Detecting Hallucinated Content in Conditional Neural Sequence Generation [165.68948078624499]
出力シーケンスの各トークンが(入力に含まれていない)幻覚化されているかどうかを予測するタスクを提案する。
また、合成データに微調整された事前学習言語モデルを用いて幻覚を検出する方法についても紹介する。
論文 参考訳(メタデータ) (2020-11-05T00:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。