論文の概要: Automated Machine Learning in Radiomics: A Comparative Evaluation of Performance, Efficiency and Accessibility
- arxiv url: http://arxiv.org/abs/2601.08334v1
- Date: Tue, 13 Jan 2026 08:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.123103
- Title: Automated Machine Learning in Radiomics: A Comparative Evaluation of Performance, Efficiency and Accessibility
- Title(参考訳): 放射能における機械学習の自動化:性能、効率、アクセシビリティの比較評価
- Authors: Jose Lozano-Montoya, Emilio Soria-Olivas, Almudena Fuster-Matanzo, Angel Alberich-Bayarri, Ana Jimenez-Pastor,
- Abstract要約: 本研究では,汎用および放射能固有のAutoMLフレームワークの性能,効率,アクセシビリティを評価する。
画像モダリティ(CT/MRI),サイズ,解剖,結節を多用した10個の公衆・民間放射能を用いた。
Simplatabは、放射能分類問題に対する性能、効率、アクセシビリティの効果的なバランスを提供する。
- 参考スコア(独自算出の注目度): 1.0631763329108546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated machine learning (AutoML) frameworks can lower technical barriers for predictive and prognostic model development in radiomics by enabling researchers without programming expertise to build models. However, their effectiveness in addressing radiomics-specific challenges remains unclear. This study evaluates the performance, efficiency, and accessibility of general-purpose and radiomics-specific AutoML frameworks on diverse radiomics classification tasks, thereby highlighting development needs for radiomics. Ten public/private radiomics datasets with varied imaging modalities (CT/MRI), sizes, anatomies and endpoints were used. Six general-purpose and five radiomics-specific frameworks were tested with predefined parameters using standardized cross-validation. Evaluation metrics included AUC, runtime, together with qualitative aspects related to software status, accessibility, and interpretability. Simplatab, a radiomics-specific tool with a no-code interface, achieved the highest average test AUC (81.81%) with a moderate runtime (~1 hour). LightAutoML, a general-purpose framework, showed the fastest execution with competitive performance (78.74% mean AUC in six minutes). Most radiomics-specific frameworks were excluded from the performance analysis due to obsolescence, extensive programming requirements, or computational inefficiency. Conversely, general-purpose frameworks demonstrated higher accessibility and ease of implementation. Simplatab provides an effective balance of performance, efficiency, and accessibility for radiomics classification problems. However, significant gaps remain, including the lack of accessible survival analysis support and the limited integration of feature reproducibility and harmonization within current AutoML frameworks. Future research should focus on adapting AutoML solutions to better address these radiomics-specific challenges.
- Abstract(参考訳): 自動機械学習(AutoML)フレームワークは、プログラミングの専門知識を持たない研究者がモデルを構築することによって、放射線学における予測的および予測的モデル開発の技術的障壁を低くすることができる。
しかし、放射能に固有の課題に対処する効果は未だ明らかではない。
本研究は,放射線学分類タスクにおける汎用および放射線学固有のAutoMLフレームワークの性能,効率,アクセシビリティを評価し,放射線学の発展ニーズを強調した。
様々な画像モダリティ(CT/MRI)、サイズ、解剖学、エンドポイントを持つ10のパブリック/プライベートラジオミクスデータセットが使用された。
6つの汎用および5つの放射能固有のフレームワークを、標準化されたクロスバリデーションを用いて事前定義されたパラメータでテストした。
評価指標には、AUC、ランタイム、ソフトウェアステータス、アクセシビリティ、解釈可能性に関する質的な側面が含まれる。
ノーコードインタフェースを備えた放射能固有のツールであるSimplatabは、中程度のランタイム(約1時間)でAUC(81.81%)の平均テストを達成した。
汎用フレームワークであるLightAutoMLは、競争力のあるパフォーマンスで最速の実行(78.74%は6分でAUC)を示した。
ほとんどの放射能固有のフレームワークは、可溶性、広範なプログラミング要件、計算の非効率性のために性能解析から除外された。
逆に汎用フレームワークは、アクセシビリティと実装の容易さを示した。
Simplatabは、放射能分類問題に対する性能、効率、アクセシビリティの効果的なバランスを提供する。
しかしながら、アクセス可能なサバイバル分析サポートの欠如や、現在のAutoMLフレームワークにおける機能の再現性と調和性の限定的な統合など、大きなギャップが残っている。
今後の研究は、これらの放射能固有の課題に対処するために、AutoMLソリューションを適用することに注力する必要がある。
関連論文リスト
- Diagnostic Performance of Universal-Learning Ultrasound AI Across Multiple Organs and Tasks: the UUSIC25 Challenge [34.86849736082012]
現在の超音波AIは、シングルタスクツールに断片化されている。
汎用AIモデルは、単一のアーキテクチャを使用して複数のタスクにわたって高い精度と効率を達成する。
論文 参考訳(メタデータ) (2025-12-19T06:54:30Z) - A Neural Network Approach to Multi-radionuclide TDCR Beta Spectroscopy [12.470638217209851]
トリプル・ツー・ダブル・一致比(TDCR)分光法は、放射性核種定量の標準手法として広く採用されている。
本稿では,数値スペクトルシミュレーションとディープラーニングを組み合わせて,標準自由自動解析を行う人工知能フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-03T08:40:02Z) - An Interpretable Transformer-Based Foundation Model for Cross-Procedural Skill Assessment Using Raw fNIRS Signals [0.0]
本稿では,FNIRS信号の最小処理に基づく解釈可能なトランスフォーマーベース基礎モデルを提案する。
このモデルは全てのタスクにおいて88%以上の分類精度を達成し、マシューズ相関係数はETIで0.91を超える。
これは、30個未満のラベル付きサンプルと軽量(2kパラメータ未満)アダプターモジュールを使用する新しい緊急気道手順に一般化する。
論文 参考訳(メタデータ) (2025-06-21T18:30:58Z) - End-to-End Deep Learning for Real-Time Neuroimaging-Based Assessment of Bimanual Motor Skills [1.710146779965826]
本研究では,fNIRS信号を直接処理する新しいエンドツーエンドディープラーニングフレームワークを提案する。
平均分類精度は93.9%(SD 4.4)、一般化精度は92.6%(SD 1.9)である。
論文 参考訳(メタデータ) (2025-03-21T22:56:54Z) - How Well Can Modern LLMs Act as Agent Cores in Radiology Environments? [54.36730060680139]
RadA-BenchPlatは、放射線学環境での大規模言語モデル(LLM)のパフォーマンスをベンチマークする評価プラットフォームである。
また、エージェント駆動型タスク解決ツールの10のカテゴリを定義し、7つの主要なLCMを評価している。
論文 参考訳(メタデータ) (2024-12-12T18:20:16Z) - Reproducible Machine Learning-based Voice Pathology Detection: Introducing the Pitch Difference Feature [1.7779568951268254]
本稿では,現在公開されているSaarbr"ucken Voice Databaseを用いた音声病理診断手法を提案する。
機械学習(ML)アルゴリズムを6つ評価する - サポートベクターマシン、kネアレスト隣人、ナイーブベイズ、決定木、ランダムフォレスト、AdaBoost。
アプローチは, 女性, 男性, 合計で85.61%, 84.69%, および85.22%であった。
論文 参考訳(メタデータ) (2024-10-14T14:17:52Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。