論文の概要: DeepSeek in Healthcare: A Survey of Capabilities, Risks, and Clinical Applications of Open-Source Large Language Models
- arxiv url: http://arxiv.org/abs/2506.01257v1
- Date: Mon, 02 Jun 2025 02:17:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.010884
- Title: DeepSeek in Healthcare: A Survey of Capabilities, Risks, and Clinical Applications of Open-Source Large Language Models
- Title(参考訳): DeepSeek in Healthcare: オープンソースの大規模言語モデルの能力・リスク・臨床応用に関する調査
- Authors: Jiancheng Ye, Sophie Bronstein, Jiarui Hai, Malak Abu Hashish,
- Abstract要約: DeepSeek-R1は、DeepSeekが開発した最先端のオープンソース大規模言語モデル(LLM)である。
パーミッシブなMITライセンスでリリースされているDeepSeek-R1は、プロプライエタリなモデルの透明性と費用対効果を提供する。
数学、医療診断、コード生成、薬学研究など、構造化された問題解決領域を卓越している。
- 参考スコア(独自算出の注目度): 4.506083131558209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DeepSeek-R1 is a cutting-edge open-source large language model (LLM) developed by DeepSeek, showcasing advanced reasoning capabilities through a hybrid architecture that integrates mixture of experts (MoE), chain of thought (CoT) reasoning, and reinforcement learning. Released under the permissive MIT license, DeepSeek-R1 offers a transparent and cost-effective alternative to proprietary models like GPT-4o and Claude-3 Opus; it excels in structured problem-solving domains such as mathematics, healthcare diagnostics, code generation, and pharmaceutical research. The model demonstrates competitive performance on benchmarks like the United States Medical Licensing Examination (USMLE) and American Invitational Mathematics Examination (AIME), with strong results in pediatric and ophthalmologic clinical decision support tasks. Its architecture enables efficient inference while preserving reasoning depth, making it suitable for deployment in resource-constrained settings. However, DeepSeek-R1 also exhibits increased vulnerability to bias, misinformation, adversarial manipulation, and safety failures - especially in multilingual and ethically sensitive contexts. This survey highlights the model's strengths, including interpretability, scalability, and adaptability, alongside its limitations in general language fluency and safety alignment. Future research priorities include improving bias mitigation, natural language comprehension, domain-specific validation, and regulatory compliance. Overall, DeepSeek-R1 represents a major advance in open, scalable AI, underscoring the need for collaborative governance to ensure responsible and equitable deployment.
- Abstract(参考訳): DeepSeek-R1は、DeepSeekが開発した最先端のオープンソース大規模言語モデル(LLM)で、専門家(MoE)、思考連鎖(CoT)推論、強化学習を組み合わせたハイブリッドアーキテクチャを通じて高度な推論能力を示す。
パーミッシブなMITライセンスの下でリリースされたDeepSeek-R1は、GPT-4oやClaude-3 Opusといったプロプライエタリなモデルの透過的で費用対効果の高い代替手段を提供する。
このモデルは、米国医学ライセンス試験 (USMLE) やアメリカ招待数学試験 (AIME) のようなベンチマーク上での競争性能を示し、小児科および眼科臨床決定支援タスクにおいて大きな成果を上げている。
そのアーキテクチャは推論の深さを保ちながら効率的な推論を可能にし、リソース制約のある設定でのデプロイメントに適している。
しかし、DeepSeek-R1はまた、特に多言語および倫理的に敏感な文脈において、バイアス、誤情報、敵対的な操作、安全上の障害に対する脆弱性を増大させている。
この調査では、解釈可能性、スケーラビリティ、適応性など、モデルの強みと、一般的な言語流用性と安全性の整合性の制限を強調している。
今後の研究優先事項には、バイアス緩和の改善、自然言語理解、ドメイン固有の検証、規制コンプライアンスなどが含まれる。
全体として、DeepSeek-R1はオープンでスケーラブルなAIの大きな進歩であり、責任と公平なデプロイメントを保証するためのコラボレーションガバナンスの必要性を強調している。
関連論文リスト
- Silence is Not Consensus: Disrupting Agreement Bias in Multi-Agent LLMs via Catfish Agent for Clinical Decision Making [80.94208848596215]
提案する概念は「Catfish Agent」である。これは、構造的不満を注入し、無声な合意に反するように設計された役割特化LDMである。
組織心理学において「ナマズ・エフェクト」にインスパイアされたカマズ・エージェントは、より深い推論を促進するために、新たなコンセンサスに挑戦するように設計されている。
論文 参考訳(メタデータ) (2025-05-27T17:59:50Z) - Benchmarking Chinese Medical LLMs: A Medbench-based Analysis of Performance Gaps and Hierarchical Optimization Strategies [11.0505830548286]
本研究は,MedBench上の上位10モデルの系統的解析を通じて,粒度の誤差分類を導入する。
10つの主要なモデルの評価は、医療知識のリコールにおいて0.86の精度を達成したにもかかわらず、脆弱性を明らかにしている。
知識境界法と多段階推論の体系的弱点を明らかにする。
論文 参考訳(メタデータ) (2025-03-10T13:28:25Z) - Large Language Models Post-training: Surveying Techniques from Alignment to Reasoning [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Quantifying the Reasoning Abilities of LLMs on Real-world Clinical Cases [48.87360916431396]
MedR-Benchは1,453例の構造化患者のベンチマークデータセットで、推論基準を付した注釈付きである。
本稿では,3つの批判的診察勧告,診断決定,治療計画を含む枠組みを提案し,患者のケアジャーニー全体をシミュレートする。
このベンチマークを用いて、DeepSeek-R1、OpenAI-o3-mini、Gemini-2.0-Flash Thinkingなど、最先端の5つのLCMを評価した。
論文 参考訳(メタデータ) (2025-03-06T18:35:39Z) - Generalization of Medical Large Language Models through Cross-Domain Weak Supervision [0.0]
医療用大規模言語モデル(MLLM)の生成能力を高めるためのICFTフレームワークを提案する。
ICFTはカリキュラムベースの学習、二段階記憶調整、パラメータ効率の微調整を組み合わせて、一般的な言語知識から強力なドメイン固有の専門知識への移行を可能にする。
論文 参考訳(メタデータ) (2025-02-02T16:05:23Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - From Explainable to Interpretable Deep Learning for Natural Language Processing in Healthcare: How Far from Reality? [8.423877102146433]
eXplainable and Interpretable Artificial Intelligence (XIAI)は、XAIとIAIを区別するために導入された人工知能である。
分析の結果,注目メカニズムが最も普及しているIAI技術であることが判明した。
主要な課題は、ほとんどのXIAIが"グローバル"なモデリングプロセス、ベストプラクティスの欠如、体系的な評価とベンチマークの欠如を探求していないことである。
論文 参考訳(メタデータ) (2024-03-18T15:53:33Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。