論文の概要: The Silicon Reasonable Person: Can AI Predict How Ordinary People Judge Reasonableness?
- arxiv url: http://arxiv.org/abs/2508.02766v1
- Date: Mon, 04 Aug 2025 06:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.618204
- Title: The Silicon Reasonable Person: Can AI Predict How Ordinary People Judge Reasonableness?
- Title(参考訳): The Silicon Reasonable Person: AIは、一般の人びとがReasonablenessをどう判断するかを予測できるのか?
- Authors: Yonathan A. Arbel,
- Abstract要約: 本稿では,大規模言語モデル(LLM)が人間の合理的性判断を駆動するパターンを識別できることを考察する。
特定のモデルが表面レベルの応答だけでなく,その基盤となる決定的アーキテクチャも捉えていることを示す。
裁判官はより広いパターンに対して直感を調整でき、議員は政策解釈をテストでき、資源制約のある訴訟員は議論の受理をプレビューできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In everyday life, people make countless reasonableness judgments that determine appropriate behavior in various contexts. Predicting these judgments challenges the legal system, as judges' intuitions may not align with broader societal views. This Article investigates whether large language models (LLMs) can learn to identify patterns driving human reasonableness judgments. Using randomized controlled trials comparing humans and models across multiple legal contexts with over 10,000 simulated judgments, we demonstrate that certain models capture not just surface-level responses but potentially their underlying decisional architecture. Strikingly, these systems prioritize social cues over economic efficiency in negligence determinations, mirroring human behavior despite contradicting textbook treatments. These findings suggest practical applications: judges could calibrate intuitions against broader patterns, lawmakers could test policy interpretations, and resource-constrained litigants could preview argument reception. As AI agents increasingly make autonomous real-world decisions, understanding whether they've internalized recognizable ethical frameworks becomes essential for anticipating their behavior.
- Abstract(参考訳): 日常生活において、人々は様々な文脈で適切な行動を決定する数え切れないほど合理的な判断を下す。
裁判官の直観はより広範な社会的見解と一致しないかもしれないため、これらの判断を予測することは法体系に挑戦する。
本稿では,大規模言語モデル(LLM)が人間の合理的性判断を駆動するパターンを識別できることを考察する。
複数の法的文脈における人間とモデルを1万以上のシミュレートされた判断で比較するランダム化制御試験を用いて、特定のモデルが表面レベルの応答だけでなく、その基盤となる決定的アーキテクチャを捉えることを実証する。
興味深いことに、これらのシステムは怠慢判定における経済効率よりも社会的手がかりを優先し、教科書処理に矛盾するにもかかわらず人間の行動を反映している。
裁判官はより広いパターンに対して直感を調整でき、議員は政策解釈をテストでき、資源制約のある訴訟員は議論の受理をプレビューできる。
AIエージェントがより自律的な現実世界の決定を行うようになると、彼らが認識可能な倫理的枠組みを内部化しているかどうかを理解することが、行動を予測する上で不可欠になる。
関連論文リスト
- AI Debate Aids Assessment of Controversial Claims [86.47978525513236]
AIの議論が、新型コロナウイルス(COVID-19)の事実性主張に反対する2つのAIシステムを議論することで、偏見のある裁判官を真実に導くことができるかどうかを調査する。
人間の研究では、2つのAIアドバイザシステムが対立するエビデンスに基づく議論を提示し、判定精度と信頼性の校正を改善していることがわかった。
我々のAIジャッジスタディでは、人間のようなペルソナを持つAIジャッジが、人間のジャッジ(70.1%)とデフォルトのAIジャッジ(69.8%)よりさらに高い精度(78.5%)を達成することが分かりました。
論文 参考訳(メタデータ) (2025-06-02T19:01:53Z) - AI vs. Human Judgment of Content Moderation: LLM-as-a-Judge and Ethics-Based Response Refusals [0.0]
本稿では,モデルに基づく評価手法がユーザと異なる反応を評価できるかどうかを検討する。
LLM-as-a-Judgeシステムでは,人間よりも倫理的拒絶が有意に良好であることがわかった。
論文 参考訳(メタデータ) (2025-05-21T10:56:16Z) - Teaching AI to Handle Exceptions: Supervised Fine-Tuning with Human-Aligned Judgment [0.0]
大規模言語モデル(LLM)はエージェントAIシステムへと進化している。
推論に優れるLCMでさえ、政策に厳格に従うため、人間の判断から大きく逸脱していることを示す。
次に、例外を処理するためにAIエージェントをチューニングするための3つのアプローチを評価する。
論文 参考訳(メタデータ) (2025-03-04T20:00:37Z) - On scalable oversight with weak LLMs judging strong LLMs [67.8628575615614]
我々は、2つのAIが1人の裁判官を納得させようとする議論、すなわち1人のAIが1人の裁判官を説得し、質問をする。
大規模言語モデル(LLM)をAIエージェントと人間の判断のためのスタンドインの両方として使用し、判断モデルがエージェントモデルよりも弱いと判断する。
論文 参考訳(メタデータ) (2024-07-05T16:29:15Z) - Judging the Judges: Evaluating Alignment and Vulnerabilities in LLMs-as-Judges [6.609843448260634]
LLM-as-a-judgeパラダイムは,大規模言語モデルを評価するアプローチとして急速に普及している。
本稿では,人間間の合意が高いクリーンなシナリオに焦点を当てる。
我々は、複雑性や長さを早めるための感度や、寛大さへの傾向など、審査モデルの脆弱性を識別する。
論文 参考訳(メタデータ) (2024-06-18T13:49:54Z) - The Reasonable Person Standard for AI [0.0]
アメリカの法制度では、しばしば「合理的な人格基準」を用いる。
本稿では、合理的な人格基準が、モデルで開発、調査、ストレステストを行うべき行動の種類について有用なガイドラインを提供すると論じる。
論文 参考訳(メタデータ) (2024-06-07T06:35:54Z) - The Ethics of Automating Legal Actors [58.81546227716182]
我々は、裁判官の役割の自動化は、特に一般的な法体系において、難しい倫理的課題を提起すると主張している。
我々の主張は、単に法律を適用するのではなく、法律を積極的に形成する際の裁判官の社会的役割から従う。
モデルが人間レベルの能力を達成できたとしても、法的プロセスの自動化に固有の倫理的懸念は残るだろう。
論文 参考訳(メタデータ) (2023-12-01T13:48:46Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。