論文の概要: Analysing Environmental Efficiency in AI for X-Ray Diagnosis
- arxiv url: http://arxiv.org/abs/2511.07436v1
- Date: Fri, 31 Oct 2025 14:19:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-16 06:38:31.052931
- Title: Analysing Environmental Efficiency in AI for X-Ray Diagnosis
- Title(参考訳): X線診断のためのAIにおける環境効率の解析
- Authors: Liam Kearns,
- Abstract要約: 本稿では,大きな言語モデル(LLM)と小さな識別モデルをメンディックスアプリケーションに統合し,胸部X線でCovid-19を検出する。
これは、精度と環境への影響を比較するために、14の異なるモデル構成のベンチマーク研究を提供する。
より小型のLCM GPT-4.1-Nanoを使用することで、大型のモデルに比べて炭素のフットプリントは94.2%削減されたが、差別的なモデルには相変わらなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of AI tools into medical applications has aimed to improve the efficiency of diagnosis. The emergence of large language models (LLMs), such as ChatGPT and Claude, has expanded this integration even further. Because of LLM versatility and ease of use through APIs, these larger models are often utilised even though smaller, custom models can be used instead. In this paper, LLMs and small discriminative models are integrated into a Mendix application to detect Covid-19 in chest X-rays. These discriminative models are also used to provide knowledge bases for LLMs to improve accuracy. This provides a benchmark study of 14 different model configurations for comparison of accuracy and environmental impact. The findings indicated that while smaller models reduced the carbon footprint of the application, the output was biased towards a positive diagnosis and the output probabilities were lacking confidence. Meanwhile, restricting LLMs to only give probabilistic output caused poor performance in both accuracy and carbon footprint, demonstrating the risk of using LLMs as a universal AI solution. While using the smaller LLM GPT-4.1-Nano reduced the carbon footprint by 94.2% compared to the larger models, this was still disproportionate to the discriminative models; the most efficient solution was the Covid-Net model. Although it had a larger carbon footprint than other small models, its carbon footprint was 99.9% less than when using GPT-4.5-Preview, whilst achieving an accuracy of 95.5%, the highest of all models examined. This paper contributes to knowledge by comparing generative and discriminative models in Covid-19 detection as well as highlighting the environmental risk of using generative tools for classification tasks.
- Abstract(参考訳): 医療アプリケーションへのAIツールの統合は、診断の効率を改善することを目的としている。
ChatGPTやClaudeのような大きな言語モデル(LLM)の出現により、この統合はさらに拡大した。
LLMの汎用性とAPIによる使いやすさのため、より小さなカスタムモデルを代わりに使用しても、大きなモデルがしばしば利用される。
本稿では, 胸部X線中のCovid-19を検出するために, LLMと小さな判別モデルをメンディックスアプリケーションに統合する。
これらの識別モデルは、LLMの知識ベースを提供し、精度を向上させるためにも使われる。
これは、精度と環境への影響を比較するために、14の異なるモデル構成のベンチマーク研究を提供する。
その結果, 小さいモデルでは炭素フットプリントが減少するが, 出力は正の診断に偏り, 出力確率は信頼性に欠けていた。
一方、LLMを確率的出力のみに制限することは、精度と炭素フットプリントの両方で性能が低下し、LLMを汎用AIソリューションとして使用するリスクが示された。
より小型のLCM GPT-4.1-Nanoを使用することで、より大きなモデルに比べて炭素のフットプリントは94.2%削減されたが、差別モデルには相変わらず不一致であり、最も効率的な解決策はコビッド・ネットモデルであった。
カーボンフットプリントは他の小型モデルよりも大きいが、GPT-4.5-Previewを使用する場合よりも99.9%小さく、検査された全てのモデルの中で最も高い95.5%の精度を達成した。
本稿では,Covid-19の検出における生成モデルと識別モデルの比較と,生成ツールを用いた分類作業の環境リスクを明らかにすることによって,知識に寄与する。
関連論文リスト
- Can Molecular Foundation Models Know What They Don't Know? A Simple Remedy with Preference Optimization [54.22711328577149]
既存の基盤モデルと柔軟に統合可能なプラグイン・アンド・プレイモジュールである,分子適応型参照インスタンスランキング(Mole-PAIR)を導入する。
本手法は既存の分子基盤モデルのOOD検出能力を著しく向上することを示す。
論文 参考訳(メタデータ) (2025-09-29T21:06:52Z) - Beyond Negation Detection: Comprehensive Assertion Detection Models for Clinical NLP [5.297964922424743]
我々は最先端のアサーション検出モデルを開発する。
我々はこれらのモデルを,クラウドベースの商用APIソリューション,レガシルールベースのNegExアプローチ,GPT-4oに対して評価する。
論文 参考訳(メタデータ) (2025-03-21T10:18:47Z) - Efficient Brain Tumor Classification with Lightweight CNN Architecture: A Novel Approach [0.0]
MRI画像を用いた脳腫瘍の分類は、早期かつ正確な検出が患者の予後に大きな影響を及ぼす医療診断において重要である。
近年のディープラーニング(DL)の進歩は将来性を示しているが、多くのモデルは精度と計算効率のバランスに苦慮している。
本稿では,分離可能な畳み込みと圧縮・励振ブロック(SEブロック)を統合した新しいモデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-02-01T21:06:42Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Aligner: Efficient Alignment by Learning to Correct [10.056049435141645]
モデルに依存しないプラグアンドプレイモジュールであるAlignerを導入し、好ましくない回答と好ましくない回答の補正残差を学習する。
トレーニングはワンオフで、さまざまなオープンソースおよびAPIベースのモデルに適用できるため、迅速なイテレーションに適している。
実験では、11の異なる言語モデルに同じAlignerモデルをデプロイすることで、パフォーマンスの向上を実証した。
論文 参考訳(メタデータ) (2024-02-04T09:24:51Z) - MiniLLM: Knowledge Distillation of Large Language Models [112.93051247165089]
知識蒸留(KD)は,大規模言語モデル(LLM)の高い計算要求を低減させる,有望な手法である。
より小さな言語モデルにLPMを蒸留するKD手法を提案する。
提案手法は,120Mから13Bのパラメータを持つ異なるモデルファミリに対してスケーラブルである。
論文 参考訳(メタデータ) (2023-06-14T14:44:03Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。