論文の概要: When Should Neural Data Inform Welfare? A Critical Framework for Policy Uses of Neuroeconomics
- arxiv url: http://arxiv.org/abs/2511.19548v1
- Date: Mon, 24 Nov 2025 12:34:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.088315
- Title: When Should Neural Data Inform Welfare? A Critical Framework for Policy Uses of Neuroeconomics
- Title(参考訳): ニューラルネットワークはいつ福祉をインフォームするか? : 神経経済学の政策利用に欠かせない枠組み
- Authors: Yiven, Zhu,
- Abstract要約: 政策や商業のアクターは、父親主義的な規制、「脳に基づく」介入、新しい福祉措置を正当化するために、神経データをますます呼び起こす。
本稿では、ニューラルネットワークが、単に行動を記述するのではなく、政策に対する福祉判断を正当に通知する条件を問う。
私は、ニューラルネットワーク、計算決定モデル、規範的福祉基準の3つのレベルをリンクする、経験的でないモデルベースのフレームワークを開発します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neuroeconomics promises to ground welfare analysis in neural and computational evidence about how people value outcomes, learn from experience and exercise self-control. At the same time, policy and commercial actors increasingly invoke neural data to justify paternalistic regulation, "brain-based" interventions and new welfare measures. This paper asks under what conditions neural data can legitimately inform welfare judgements for policy rather than merely describing behaviour. I develop a non-empirical, model-based framework that links three levels: neural signals, computational decision models and normative welfare criteria. Within an actor-critic reinforcement-learning model, I formalise the inference path from neural activity to latent values and prediction errors and then to welfare claims. I show that neural evidence constrains welfare judgements only when the neural-computational mapping is well validated, the decision model identifies "true" interests versus context-dependent mistakes, and the welfare criterion is explicitly specified and defended. Applying the framework to addiction, neuromarketing and environmental policy, I derive a Neuroeconomic Welfare Inference Checklist for regulators and for designers of NeuroAI systems. The analysis treats brains and artificial agents as value-learning systems while showing that internal reward signals, whether biological or artificial, are computational quantities and cannot be treated as welfare measures without an explicit normative model.
- Abstract(参考訳): 神経経済学は、人々が成果をどのように評価するか、経験から学び、自己制御を実践するかについての神経的および計算的証拠において、福祉分析の基礎となることを約束する。
同時に、政策と商業のアクターは、父性主義的な規制、「脳に基づく」介入、新しい福祉措置を正当化するために、神経データをますます呼び起こす。
本稿では、ニューラルネットワークが、単に行動を記述するのではなく、政策に対する福祉判断を正当に通知する条件を問う。
私は、ニューラルネットワーク、計算決定モデル、規範的福祉基準の3つのレベルをリンクする、経験的でないモデルベースのフレームワークを開発します。
アクター-批判的強化学習モデルでは、神経活動から潜在値や予測エラーへの推論経路を定式化し、福祉的主張を定式化する。
ニューラルエビデンスは、ニューラルネットワークマッピングが十分に検証された場合にのみ福祉判断を制約し、決定モデルは「真」の利害と文脈依存の誤りを識別し、福祉基準を明示的に規定し、保護することを示します。
依存症、ニューロマーケティング、環境政策の枠組みを適用して、私は、規制当局とNeuroAIシステムの設計者のための神経経済福祉推論チェックリストを導出します。
この分析は、脳と人工エージェントを価値学習システムとして扱い、内部報酬信号が生物学的または人工的にも計算量であり、明示的な規範モデルなしでは福祉措置として扱うことができないことを示す。
関連論文リスト
- Understanding How Value Neurons Shape the Generation of Specified Values in LLMs [31.185636385067152]
大規模言語モデルの社会的応用への統合は、普遍的倫理原則との整合性に対する懸念を強めている。
現在のアプローチでは、ニューラルネットワークでどのように値をエンコードするかを体系的に解釈するのに苦労している。
我々は、Schwartz Surveyに基盤を置く機械的解釈可能性フレームワークであるValueを紹介します。
論文 参考訳(メタデータ) (2025-05-23T10:30:09Z) - On the Promise for Assurance of Differentiable Neurosymbolic Reasoning Paradigms [9.071347361654931]
我々は、データ効率のモデルを作成する新しい手法である、エンド・ツー・エンドの完全微分可能なニューロシンボリックシステムの保証を評価する。
エンド・ツー・エンドのニューロシンボリックな手法は、データ効率を超える保証のユニークな機会を提示する。
論文 参考訳(メタデータ) (2025-02-13T03:29:42Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - Redundancy and Concept Analysis for Code-trained Language Models [5.726842555987591]
コード学習言語モデルは、様々なコードインテリジェンスタスクに非常に効果的であることが証明されている。
計算ボトルネックとメモリ制約のため、多くのソフトウェアエンジニアリングアプリケーションのトレーニングとデプロイが難しい場合がある。
我々は,ソースコードモデルに対する最初のニューロンレベルの解析を行い,潜在表現内でのテクスチエントニューロンの同定を行う。
論文 参考訳(メタデータ) (2023-05-01T15:22:41Z) - Neuroevolutionary algorithms driven by neuron coverage metrics for
semi-supervised classification [60.60571130467197]
一部の機械学習アプリケーションでは、ラベル付けされていないインスタンスが豊富であるのに対して、教師付き分類のためのラベル付きインスタンスの可用性は制限されている。
本稿では、ニューラルネットワークアーキテクチャ上で計算されたニューラルネットワークカバレッジメトリクスを用いて、未ラベルのインスタンスを利用する神経進化的アプローチを提案する。
論文 参考訳(メタデータ) (2023-03-05T23:38:44Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。