論文の概要: LLMs on Drugs: Language Models Are Few-Shot Consumers
- arxiv url: http://arxiv.org/abs/2512.18546v1
- Date: Sun, 21 Dec 2025 00:19:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.390515
- Title: LLMs on Drugs: Language Models Are Few-Shot Consumers
- Title(参考訳): LLMs on Drugs:Language Models are little-Shot Consumers
- Authors: Alexander Doudkin,
- Abstract要約: ARC-Challenge を用いた GPT-5-mini における心理活性フレーミングの制御に関する研究を行った。
4つの単一文プロンプト(LSD、コカイン、アルコール、大麻)は、すっぱいコントロールと比較される。
ペルソナテキストは、モデルの重みに触れることなく信頼性を損なう「ファウショット消費可能」のように振る舞う。
- 参考スコア(独自算出の注目度): 51.736723807086385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are sensitive to the personas imposed on them at inference time, yet prompt-level "drug" interventions have never been benchmarked rigorously. We present the first controlled study of psychoactive framings on GPT-5-mini using ARC-Challenge. Four single-sentence prompts -- LSD, cocaine, alcohol, and cannabis -- are compared against a sober control across 100 validation items per condition, with deterministic decoding, full logging, Wilson confidence intervals, and Fisher exact tests. Control accuracy is 0.45; alcohol collapses to 0.10 (p = 3.2e-8), cocaine to 0.21 (p = 4.9e-4), LSD to 0.19 (p = 1.3e-4), and cannabis to 0.30 (p = 0.041), largely because persona prompts disrupt the mandated "Answer: <LETTER>" template. Persona text therefore behaves like a "few-shot consumable" that can destroy reliability without touching model weights. All experimental code, raw results, and analysis scripts are available at https://github.com/lexdoudkin/llms-on-drugs.
- Abstract(参考訳): 大規模言語モデル(LLM)は推論時に課されたペルソナに敏感であるが、迅速なレベルの"ドラッグ"介入は厳格にベンチマークされることはなかった。
ARC-Challenge を用いた GPT-5-mini における心理活性フレーミングの制御に関する研究を行った。
LSD、コカイン、アルコール、大麻の4つの単文プロンプトは、決定論的復号、完全なロギング、ウィルソンの自信間隔、フィッシャーの正確な検査など、条件ごとに100項目の検証項目をまかなう、すっぱいコントロールと比較される。
制御精度は 0.45 であり、アルコールは 0.10 (p = 3.2e-8)、コカインは 0.21 (p = 4.9e-4)、LSDは 0.19 (p = 1.3e-4)、大麻は 0.30 (p = 0.041) に崩壊する。
したがって、ペルソナテキストはモデルウェイトに触れることなく信頼性を損なう「ファウショット消費」のように振る舞う。
すべての実験コード、生の結果、分析スクリプトはhttps://github.com/lexdoudkin/llms-on-drugs.comで入手できる。
関連論文リスト
- LLMs Can Get "Brain Rot"! [68.08198331505695]
ジャンクウェブテキストへの連続曝露は、大規模言語モデル(LLM)の持続的認知低下を誘導する
実Twitter/Xコーパスで制御された実験を行い、ジャンクと逆制御されたデータセットを構築します。
その結果、データ品質がLLM能力の崩壊の原因であることを示す重要な多視点的証拠が得られた。
論文 参考訳(メタデータ) (2025-10-15T13:28:49Z) - HalluDetect: Detecting, Mitigating, and Benchmarking Hallucinations in Conversational Systems in the Legal Domain [28.691566712713808]
大規模言語モデル(LLM)は、業界で広く使われているが、幻覚の傾向が強く、重要なアプリケーションにおける信頼性を制限している。
本研究は,LLaMA 3.1 8B Instructを用いて構築したコンシューマーグリーバンスチャットボットの幻覚低減について述べる。
LLMに基づく幻覚検出システムであるHaluDetectを開発し、F1スコアは68.92%、ベースライン検出器は22.47%向上した。
論文 参考訳(メタデータ) (2025-09-15T06:23:36Z) - Can LLMs Infer Personality from Real World Conversations? [5.705775078773656]
大規模言語モデル(LLM)は、オープンエンド言語からのスケーラブルなパーソナリティアセスメントに対して、有望なアプローチを提供する。
BFI-10項目予測のためのゼロショットプロンプトと、ビッグファイブ特性推定のためのゼロショットとチェーン・オブ・シートの両方を用いて、最先端の3つのLSMを試験した。
全てのモデルでは高い信頼性を示したが、構成の妥当性は限られていた。
論文 参考訳(メタデータ) (2025-07-18T20:22:47Z) - Learning to Describe for Predicting Zero-shot Drug-Drug Interactions [54.172575323610175]
薬物と薬物の相互作用は同時投与の有効性を損なう可能性がある。
従来のDDI予測の計算手法では、知識不足のため、新しい薬物の相互作用を捉えることができない可能性がある。
言語モデルに基づくDDI予測器と強化学習(RL)に基づく情報セレクタを用いたテキストDDIを提案する。
論文 参考訳(メタデータ) (2024-03-13T09:42:46Z) - Neural Bandits for Data Mining: Searching for Dangerous Polypharmacy [63.135687276599114]
一部の多薬局は、不適切とみなされており、死亡や入院などの健康上の有害な結果に関係している可能性がある。
我々は、クレームデータセットを効率的にマイニングし、薬物の組み合わせと健康結果の関係の予測モデルを構築するためのOptimNeuralTS戦略を提案する。
提案手法では,最大72%のPIPを検出でき,平均精度は99%であり,30000タイムステップで検出できる。
論文 参考訳(メタデータ) (2022-12-10T03:43:23Z) - HyGNN: Drug-Drug Interaction Prediction via Hypergraph Neural Network [0.0]
薬物と薬物の相互作用(DDI)は薬物の機能を妨げる可能性があり、最悪の場合、薬物の副作用(ADR)を引き起こす可能性がある。
本稿では,DDI予測問題に対するSMILES文字列のみに基づく新しいハイパーグラフニューラルネットワーク(HyGNN)モデルを提案する。
提案したHyGNNモデルは, DDIを効果的に予測し, ROC-AUCとPR-AUCを97.9%, 98.1%で比較した。
論文 参考訳(メタデータ) (2022-06-25T22:48:27Z) - SafeDrug: Dual Molecular Graph Encoders for Safe Drug Recommendations [59.590084937600764]
医薬品の分子構造とDDIのモデルを明確に活用するために、SafeDrugというDDI制御可能な薬物推奨モデルを提案する。
ベンチマークデータセットでは、SafeDrugはDDIを19.43%削減し、Jaccardの推奨薬物と実際に処方された薬物の組み合わせの2.88%を改善します。
論文 参考訳(メタデータ) (2021-05-05T00:20:48Z) - Robustness to Spurious Correlations via Human Annotations [100.63051542531171]
本稿では,人間に共通する因果関係の知識を活用して,素因関係に頑健なモデルを構築するための枠組みを提案する。
具体的には、人間のアノテーションを使用して、潜在的な未測定変数でトレーニング例を拡大する。
次に,未測定変数(UV-DRO)に対する分布性に頑健な新たな最適化手法を導入し,テスト時間シフトによる最悪の損失を制御する。
論文 参考訳(メタデータ) (2020-07-13T20:05:19Z) - A Minimal-Input Multilayer Perceptron for Predicting Drug-Drug
Interactions Without Knowledge of Drug Structure [0.0]
薬物間の相互作用を予測する最小入力型多層パーセプトロンを提案する。
薬物と薬物の相互作用と関連する性質を用いて、約65万項目のデータセットでモデルをトレーニングした。
モデルが訓練された薬物間の相互作用サンプルの0.968の精度と、不明薬物間の相互作用サンプルの0.942の精度を報告した。
論文 参考訳(メタデータ) (2020-05-20T17:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。