論文の概要: Bioalignment: Measuring and Improving LLM Disposition Toward Biological Systems for AI Safety
- arxiv url: http://arxiv.org/abs/2603.09154v1
- Date: Tue, 10 Mar 2026 03:44:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.00453
- Title: Bioalignment: Measuring and Improving LLM Disposition Toward Biological Systems for AI Safety
- Title(参考訳): バイオアライメント:AI安全のためのバイオシステムに向けたLCM配置の測定と改善
- Authors: Trent R Northen, Mingxun Wang,
- Abstract要約: インターネット規模のコーパスで訓練された大規模言語モデル(LLM)は、望ましくない行動の確率を増加させる体系的なバイアスを示す。
4つの領域(材料、エネルギー、製造、アルゴリズム)にわたる合成と生物の技術的ソリューションに対する潜在的なバイアスについて検討した。
その結果,QLoRAファインチューニングは,一般性能を低下させることなく,両モデルの生体溶液のスコアリングを著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) trained on internet-scale corpora can exhibit systematic biases that increase the probability of unwanted behavior. In this study, we examined potential biases towards synthetic vs. biological technological solutions across four domains (materials, energy, manufacturing, and algorithms). A sample of 5 frontier and 5 open-weight models were measured using 50 curated Bioalignment prompts with a Kelly criterion-inspired evaluation framework. According to this metric, most models were not bioaligned in that they exhibit biases in favor of synthetic (non-biological) solutions. We next examined if fine-tuning could increase the preferences of two open-weight models, Llama 3.2-3B-Instruct and Qwen2.5-3B-Instruct, for biological-based approaches. A curated corpus of ~22M tokens from 6,636 PMC articles emphasizing biological problem-solving was used first to fine-tune Llama 3B with a mixed corpus of continued training and instruction-formatted. This was then extended to Qwen 3B using instruction-formatted only. We found that QLoRA fine-tuning significantly increased the scoring of biological solutions for both models without degrading general capabilities (Holm-Bonferroni-corrected p < 0.001 and p < 0.01, respectively). This suggests that even a small amount of fine-tuning can change how models weigh the relative value of biological and bioinspired vs. synthetic approaches. Although this work focused on small open-weight LLMs, it may be extensible to much larger models and could be used to develop models that favor bio-based approaches. We release the benchmark, corpus, code, and adapter weights.
- Abstract(参考訳): インターネット規模のコーパスで訓練された大規模言語モデル(LLM)は、望ましくない行動の確率を増加させる体系的なバイアスを示す。
本研究では, 4つの領域(材料, エネルギー, 製造, アルゴリズム)にまたがる, 合成と生物の技術的ソリューションに対する潜在的なバイアスについて検討した。
5つのフロンティアと5つのオープンウェイトモデルのサンプルをケリー基準にインスパイアされた評価フレームワークを用いて50個のキュレートされたバイオアライメントプロンプトを用いて測定した。
この測定値によると、ほとんどのモデルは、合成(非生物学的)解に有利なバイアスを示すというバイオアライメントを持っていなかった。
次に,2種類のオープンウェイトモデルであるLlama 3.2-3B-インストラクトとQwen2.5-3B-インストラクトの生物学的アプローチに対する嗜好を高めることができるかを検討した。
6,636のMCC論文から得られた約22Mのトークンのキュレートコーパスを用いて,Llama 3Bの微調整を行った。
その後、命令形式のみを使用してQwen 3Bに拡張された。
その結果,QLoRA微調整は,一般性能を低下させることなく,両モデルの生物学的解のスコアリングを著しく向上させた(ホルム・ボンフェロニ補正 p < 0.001 および p < 0.01 )。
これは、少量の微調整でさえ、モデルが生物や生物にインスパイアされた相対的価値と合成アプローチの相対的価値をどう評価するかを変える可能性があることを示唆している。
この研究は、小さなオープンウェイト LLM に焦点を当てたものの、より大きなモデルに拡張可能であり、バイオベースのアプローチを好むモデルの開発に使用できる可能性がある。
ベンチマーク、コーパス、コード、アダプタウェイトをリリースしています。
関連論文リスト
- Physiologically Informed Deep Learning: A Multi-Scale Framework for Next-Generation PBPK Modeling [5.007023403094322]
メカニスティックリガーとデータ駆動の柔軟性を橋渡しするSciML(SciML)フレームワークを提案する。
1) 薬物動態予測をシーケンスモデリングタスクとして扱う基盤PBPK変換器,(2) 生理的制約付き拡散モデル(PCDM),(3) 生物学的に適合した仮想患者集団を合成するための物理インフォームドロスを用いた生成アプローチ,(3) ニューラルネットワークとニューラルネットワークを組み合わせたハイブリッドアーキテクチャであるニューラルアロメトリー,などを紹介する。
論文 参考訳(メタデータ) (2026-02-09T00:26:01Z) - EQ-5D Classification Using Biomedical Entity-Enriched Pre-trained Language Models and Multiple Instance Learning [0.42970700836450487]
健康経済学において、体系的な文献レビューは、EQ-5Dを使用する出版物の正しい識別に依存している。
大量の科学文献の手作業によるスクリーニングは、時間を要する、エラーを起こし、一貫性がない。
本研究では,汎用言語モデル(BERT)とドメイン固有言語モデル(SciBERT, BioBERT)の微調整について検討する。
論文 参考訳(メタデータ) (2026-01-30T20:10:34Z) - BMRetriever: Tuning Large Language Models as Better Biomedical Text Retrievers [48.21255861863282]
BMRetrieverは、バイオメディカル検索を強化するための一連の密集したレトリバーである。
BMRetrieverは強力なパラメータ効率を示し、410Mの派生型はベースラインを最大11.7倍まで上回っている。
論文 参考訳(メタデータ) (2024-04-29T05:40:08Z) - MS-MANO: Enabling Hand Pose Tracking with Biomechanical Constraints [50.61346764110482]
筋骨格系と学習可能なパラメトリックハンドモデルMANOを統合し,MS-MANOを作成する。
このモデルは骨格系を駆動する筋肉と腱の力学をエミュレートし、結果として生じるトルク軌跡に生理学的に現実的な制約を与える。
また,マルチ層パーセプトロンネットワークによる初期推定ポーズを改良する,ループ式ポーズ改善フレームワークBioPRを提案する。
論文 参考訳(メタデータ) (2024-04-16T02:18:18Z) - Improving Biomedical Entity Linking with Retrieval-enhanced Learning [53.24726622142558]
$k$NN-BioELは、トレーニングコーパス全体から同様のインスタンスを予測のヒントとして参照する機能を備えたBioELモデルを提供する。
k$NN-BioELは、いくつかのデータセットで最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-12-15T14:04:23Z) - Distilling Large Language Models for Biomedical Knowledge Extraction: A
Case Study on Adverse Drug Events [17.73671383380315]
本研究では,大規模言語モデル(LLM)が生物医学的知識キュレーションのスケールアップにどのように役立つかを検討する。
コスト,効率,ホワイトボックスモデルアクセスといった付加的なアドバンテージを伴って,アウトオブボックスのLCMよりも大幅に向上できることが判明した。
論文 参考訳(メタデータ) (2023-07-12T20:08:48Z) - Exploring the Limits of Domain-Adaptive Training for Detoxifying
Large-Scale Language Models [84.30718841659531]
言語モデルの毒性を低減するために,ドメイン適応型学習について検討する。
トレーニングコーパスでは, LMの生成能力を活用することを提案する。
次に,126Mから530Bまでのパラメータサイズを持つLMを包括的に研究した。
論文 参考訳(メタデータ) (2022-02-08T22:10:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。