論文の概要: KonfAI: A Modular and Fully Configurable Framework for Deep Learning in Medical Imaging
- arxiv url: http://arxiv.org/abs/2508.09823v1
- Date: Wed, 13 Aug 2025 13:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.916527
- Title: KonfAI: A Modular and Fully Configurable Framework for Deep Learning in Medical Imaging
- Title(参考訳): KonfAI: 医療画像の深層学習のためのモジュール的で完全に構成可能なフレームワーク
- Authors: Valentin Boussot, Jean-Louis Dillenseger,
- Abstract要約: KonfAIでは、構造化YAML構成ファイルを通じて、完全なトレーニング、推論、評価を定義することができる。
KonfAIは、パッチベースの学習、テスト時間拡張、モデルエンハンブル、そして深い監視のために中間機能表現への直接アクセスを含む高度な戦略のネイティブ抽象化を提供する。
- 参考スコア(独自算出の注目度): 0.5831737970661138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: KonfAI is a modular, extensible, and fully configurable deep learning framework specifically designed for medical imaging tasks. It enables users to define complete training, inference, and evaluation workflows through structured YAML configuration files, without modifying the underlying code. This declarative approach enhances reproducibility, transparency, and experimental traceability while reducing development time. Beyond the capabilities of standard pipelines, KonfAI provides native abstractions for advanced strategies including patch-based learning, test-time augmentation, model ensembling, and direct access to intermediate feature representations for deep supervision. It also supports complex multi-model training setups such as generative adversarial architectures. Thanks to its modular and extensible architecture, KonfAI can easily accommodate custom models, loss functions, and data processing components. The framework has been successfully applied to segmentation, registration, and image synthesis tasks, and has contributed to top-ranking results in several international medical imaging challenges. KonfAI is open source and available at \href{https://github.com/vboussot/KonfAI}{https://github.com/vboussot/KonfAI}.
- Abstract(参考訳): KonfAIは、医療画像処理に特化したモジュール式で拡張性があり、完全に構成可能なディープラーニングフレームワークである。
ユーザは、基盤となるコードを変更することなく、構造化されたYAML構成ファイルを通じて、完全なトレーニング、推論、評価ワークフローを定義することができる。
この宣言的なアプローチは、再現性、透明性、実験的なトレーサビリティを高めながら、開発時間を短縮します。
標準パイプラインの能力の他に、KonfAIは、パッチベースの学習、テスト時間拡張、モデルのエンハンブル、詳細な監視のための中間機能表現への直接アクセスを含む高度な戦略のネイティブ抽象化を提供する。
また、生成的対向アーキテクチャのような複雑なマルチモデルトレーニング設定もサポートする。
モジュラーで拡張可能なアーキテクチャのおかげで、KonfAIはカスタムモデル、損失関数、データ処理コンポーネントを容易に対応できる。
このフレームワークはセグメンテーション、登録、画像合成のタスクにうまく適用され、いくつかの国際的医療画像の課題において上位の成果に貢献した。
KonfAIはオープンソースで、 \href{https://github.com/vboussot/KonfAI}{https://github.com/vboussot/KonfAI} で入手できる。
関連論文リスト
- A Fuzzy Logic Prompting Framework for Large Language Models in Adaptive and Uncertain Tasks [2.1756081703276]
動的でユーザ中心のタスクにまたがる大規模言語モデル(LLM)のより安全で適応的な利用をサポートするモジュール型プロンプトフレームワークを導入する。
本手法は,ファジィな足場論理と適応規則を符号化した制御スキーマと,自然言語境界プロンプトを組み合わせる。
シミュレーションされたインテリジェントなチューター設定では、このフレームワークは、複数のモデル間の足場品質、適応性、命令的アライメントを改善し、標準のベースラインを上回ります。
論文 参考訳(メタデータ) (2025-08-08T23:50:48Z) - Growing Transformers: Modular Composition and Layer-wise Expansion on a Frozen Substrate [0.0]
本稿では,非学習可能で決定論的な入力埋め込みの基礎の上に構築された,モデル開発のための代替的,建設的なアプローチについて検討する。
異なるデータセットでトレーニングされたスペシャリストモデルは、単一のより有能なMixture-of-Expertsモデルにマージ可能であることを示す。
そこで我々は,深層トランスフォーマーを段階的に積み重ねて,一度に1つのレイヤをトレーニングすることで,階層的に構築的なトレーニング手法を導入する。
論文 参考訳(メタデータ) (2025-07-08T20:01:15Z) - TransMamba: Fast Universal Architecture Adaption from Transformers to Mamba [88.31117598044725]
本稿では,既存のTransformerモデルの知識を,TransMambaと呼ばれる代替アーキテクチャのMambaに伝達するクロスアーキテクチャトレーニングについて検討する。
提案手法では,新しいマンバモデルの訓練を高速化し,ユニモーダルタスクおよびクロスモーダルタスクにおける有効性を確保するための2段階戦略を採用している。
クロスモーダル学習のために,言語認識をMambaの視覚的特徴に統合し,Mambaアーキテクチャのクロスモーダルインタラクション能力を向上するクロスマンバモジュールを提案する。
論文 参考訳(メタデータ) (2025-02-21T01:22:01Z) - ContextFormer: Redefining Efficiency in Semantic Segmentation [48.81126061219231]
畳み込み法は、局所的な依存関係をうまく捉えるが、長距離関係に苦慮する。
ビジョントランスフォーマー(ViT)は、グローバルなコンテキストキャプチャでは優れるが、高い計算要求によって妨げられる。
我々は,リアルタイムセマンティックセグメンテーションの効率,精度,堅牢性のバランスをとるために,CNN と ViT の強みを活用したハイブリッドフレームワーク ContextFormer を提案する。
論文 参考訳(メタデータ) (2025-01-31T16:11:04Z) - EpiCoder: Encompassing Diversity and Complexity in Code Generation [49.170195362149386]
既存のコード生成方法はシードデータとしてコードスニペットを使用する。
階層的なコード機能を中心に展開する,新しい機能ツリーベースの合成フレームワークを提案する。
我々のフレームワークは、生成されたコードの複雑さを正確に制御し、関数レベルの操作からマルチファイルのシナリオまで幅広い機能を実現する。
論文 参考訳(メタデータ) (2025-01-08T18:58:15Z) - Flemme: A Flexible and Modular Learning Platform for Medical Images [5.086862917025204]
Flemmeは、MedicalイメージのためのFLExible and Modular Learningプラットフォームである。
コンボリューション,トランスフォーマー,状態空間モデル(SSM)に基づくビルディングブロックを用いてエンコーダを構築し,2次元画像パッチと3次元画像パッチの両処理を行う。
論文 参考訳(メタデータ) (2024-08-18T05:47:33Z) - Interfacing Foundation Models' Embeddings [131.0352288172788]
ファウンデーションモデルの埋め込みと、モダリティと粒度にまたがる統合イメージとデータセットレベルの理解を整合させる汎用インターフェースであるFINDを提案する。
インターリーブド埋め込み空間を考慮したFIND-Benchでは,インターリーブドセグメンテーションと検索のためのCOCOデータセットに新たなトレーニングと評価アノテーションを導入している。
論文 参考訳(メタデータ) (2023-12-12T18:58:02Z) - Towards More Unified In-context Visual Understanding [74.55332581979292]
マルチモーダル出力を有効にした視覚理解のための新しいICLフレームワークを提案する。
まず、テキストと視覚的プロンプトの両方を量子化し、統一された表現空間に埋め込む。
次にデコーダのみのスパーストランスアーキテクチャを用いて生成モデリングを行う。
論文 参考訳(メタデータ) (2023-12-05T06:02:21Z) - i-Code Studio: A Configurable and Composable Framework for Integrative
AI [93.74891865028867]
統合AIのためのフレキシブルで構成可能なフレームワークであるi-Code Studioを提案する。
i-Code Studioは、複雑なマルチモーダルタスクを実行するために、微調整なしで複数の事前訓練されたモデルを編成する。
i-Code Studioは、ビデオからテキストへの検索、音声から音声への翻訳、視覚的質問応答など、さまざまなゼロショットマルチモーダルタスクに関する印象的な結果を達成する。
論文 参考訳(メタデータ) (2023-05-23T06:45:55Z) - Deploying deep learning in OpenFOAM with TensorFlow [2.1874189959020423]
このモジュールはC APIで構築され、実行時にリンク可能なアプリケーションとしてOpenFOAMに統合される。
特に、私たちの定式化は、ニューラルネットワークアーキテクチャのタイプに関する制限を妨げます。
さらに、提案するモジュールは、計算流体力学と機械学習のための、オープンソースで統一的で透明なフレームワークへの道筋を概説している。
論文 参考訳(メタデータ) (2020-12-01T23:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。