論文の概要: Rule-Based Moral Principles for Explaining Uncertainty in Natural Language Generation
- arxiv url: http://arxiv.org/abs/2509.07190v1
- Date: Mon, 08 Sep 2025 20:14:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.106166
- Title: Rule-Based Moral Principles for Explaining Uncertainty in Natural Language Generation
- Title(参考訳): 自然言語生成における不確実性説明のためのルールに基づくモラル原理
- Authors: Zahra Atf, Peter R Lewis,
- Abstract要約: 本研究では,大言語モデルにおける不確実性を扱うための規則に基づく道徳原則に基づく枠組みを提案する。
道徳心理学や美徳倫理からの洞察を用いて、私たちは、反応を導くための予防、軽視、責任などのルールを定義します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used in high-stakes settings, where explaining uncertainty is both technical and ethical. Probabilistic methods are often opaque and misaligned with expectations of transparency. We propose a framework based on rule-based moral principles for handling uncertainty in LLM-generated text. Using insights from moral psychology and virtue ethics, we define rules such as precaution, deference, and responsibility to guide responses under epistemic or aleatoric uncertainty. These rules are encoded in a lightweight Prolog engine, where uncertainty levels (low, medium, high) trigger aligned system actions with plain-language rationales. Scenario-based simulations benchmark rule coverage, fairness, and trust calibration. Use cases in clinical and legal domains illustrate how moral reasoning can improve trust and interpretability. Our approach offers a transparent, lightweight alternative to probabilistic models for socially responsible natural language generation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、技術的にも倫理的にも不確実性を説明するため、高い視点での使用が増えている。
確率的手法は、しばしば不透明であり、透明性の期待と不一致である。
LLM生成テキストにおける不確実性を扱うための規則に基づく道徳原則に基づく枠組みを提案する。
道徳心理学や美徳倫理からの洞察を用いて、注意、軽視、責任などの規則を定義して、疫学的またはアレタリックな不確実性の下で反応を導く。
これらのルールは軽量なPrologエンジンにエンコードされ、不確実なレベル(低、中、高)が、平易な言語理性を持ったシステムアクションをトリガーする。
シナリオベースのシミュレーションは、ルールカバレッジ、公正性、信頼のキャリブレーションをベンチマークする。
臨床的および法的領域におけるユースケースは、道徳的推論が信頼と解釈可能性をどのように改善するかを示している。
我々のアプローチは、社会的に責任のある自然言語生成のための確率モデルに代わる透明で軽量な代替手段を提供する。
関連論文リスト
- Code over Words: Overcoming Semantic Inertia via Code-Grounded Reasoning [12.151063066287206]
LLMはセマンティック・慣性 (Semantic Inertia) と戦っている。
記述的テキストではなく,動的表現を実行可能なコードとして表現することは,この傾向を逆転させ,効果的な事前抑制を可能にすることを示す。
論文 参考訳(メタデータ) (2026-01-26T10:58:52Z) - Black Box Deployed -- Functional Criteria for Artificial Moral Agents in the LLM Era [0.0]
従来の倫理的基準は、このミスマッチのため、大きな言語モデル(LLM)では実践的に時代遅れである、と論文は主張する。
本稿では,LLMに基づく人工モラルエージェントを評価するための10種類の機能基準を改訂した。
これらのガイドポストは、私たちが「SMA-LLS」と呼ぶものに適用し、よりアライメントを高め、社会的統合を促進することを目的としている。
論文 参考訳(メタデータ) (2025-07-17T14:39:29Z) - Are Language Models Consequentialist or Deontological Moral Reasoners? [75.6788742799773]
我々は、大規模言語モデル(LLM)が提供する道徳的推論トレースの大規模分析に焦点をあてる。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
論文 参考訳(メタデータ) (2025-05-27T17:51:18Z) - Context Reasoner: Incentivizing Reasoning Capability for Contextualized Privacy and Safety Compliance via Reinforcement Learning [53.92712851223158]
安全とプライバシの問題を文脈整合性(CI)理論に従って文脈整合性問題に定式化する。
CIフレームワークの下では、当社のモデルを3つの重要な規制基準 – EU AI ActとHIPAA – に整合させています。
我々は、安全・プライバシー基準の遵守を高めつつ、文脈推論能力を高めるためにルールベースの報酬を持つ強化学習(RL)を採用している。
論文 参考訳(メタデータ) (2025-05-20T16:40:09Z) - Deliberative Alignment: Reasoning Enables Safer Language Models [64.60765108418062]
モデルセーフティ仕様を教える新しいパラダイムであるDeliberative Alignmentを紹介します。
このアプローチを使ってOpenAIのoシリーズモデルを整列させ、人書きのチェーンや回答を必要とせず、OpenAIの安全ポリシーに極めて正確な順守を実現しました。
論文 参考訳(メタデータ) (2024-12-20T21:00:11Z) - ClarityEthic: Explainable Moral Judgment Utilizing Contrastive Ethical Insights from Large Language Models [30.301864398780648]
我々は、LLMの推論能力と対照的な学習を活用して関連する社会的規範を明らかにする、textitEthicと呼ばれる新しい道徳的判断手法を導入する。
本手法は,道徳的判断課題における最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-12-17T12:22:44Z) - ConU: Conformal Uncertainty in Large Language Models with Correctness Coverage Guarantees [68.33498595506941]
自己整合性理論に基づく新しい不確実性尺度を導入する。
次に,CPアルゴリズムに正当性に整合した不確かさ条件を組み込むことにより,適合性不確かさの基準を策定する。
実証的な評価は、我々の不確実性測定が過去の最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-06-29T17:33:07Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Hybrid Approaches for Moral Value Alignment in AI Agents: a Manifesto [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
連続体としてモデル化された機械に道徳を導入する問題に対する既存のアプローチの体系化を提供する。
我々は、適応可能で堅牢だが制御可能で解釈可能なエージェントシステムを構築するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Rule By Example: Harnessing Logical Rules for Explainable Hate Speech
Detection [13.772240348963303]
Rule By Example(RBE)は、テキストコンテンツモデレーションのタスクに対する論理規則から学習するための、新規なコントラスト学習手法である。
RBEはルール基底の予測を提供することができ、典型的なディープラーニングベースのアプローチと比較して説明可能でカスタマイズ可能な予測を可能にする。
論文 参考訳(メタデータ) (2023-07-24T16:55:37Z) - Morality, Machines and the Interpretation Problem: A value-based,
Wittgensteinian approach to building Moral Agents [0.0]
機械に道徳性を持たせようとする試みは、我々が解釈問題と呼ぶものである。
我々は、マシンに与えるいかなるルールも、道徳的に不適切な方法で無限の解釈に開放されていると主張する。
論文 参考訳(メタデータ) (2021-03-03T22:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。