論文の概要: Rule-Based Moral Principles for Explaining Uncertainty in Natural Language Generation
- arxiv url: http://arxiv.org/abs/2509.07190v1
- Date: Mon, 08 Sep 2025 20:14:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.106166
- Title: Rule-Based Moral Principles for Explaining Uncertainty in Natural Language Generation
- Title(参考訳): 自然言語生成における不確実性説明のためのルールに基づくモラル原理
- Authors: Zahra Atf, Peter R Lewis,
- Abstract要約: 本研究では,大言語モデルにおける不確実性を扱うための規則に基づく道徳原則に基づく枠組みを提案する。
道徳心理学や美徳倫理からの洞察を用いて、私たちは、反応を導くための予防、軽視、責任などのルールを定義します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used in high-stakes settings, where explaining uncertainty is both technical and ethical. Probabilistic methods are often opaque and misaligned with expectations of transparency. We propose a framework based on rule-based moral principles for handling uncertainty in LLM-generated text. Using insights from moral psychology and virtue ethics, we define rules such as precaution, deference, and responsibility to guide responses under epistemic or aleatoric uncertainty. These rules are encoded in a lightweight Prolog engine, where uncertainty levels (low, medium, high) trigger aligned system actions with plain-language rationales. Scenario-based simulations benchmark rule coverage, fairness, and trust calibration. Use cases in clinical and legal domains illustrate how moral reasoning can improve trust and interpretability. Our approach offers a transparent, lightweight alternative to probabilistic models for socially responsible natural language generation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、技術的にも倫理的にも不確実性を説明するため、高い視点での使用が増えている。
確率的手法は、しばしば不透明であり、透明性の期待と不一致である。
LLM生成テキストにおける不確実性を扱うための規則に基づく道徳原則に基づく枠組みを提案する。
道徳心理学や美徳倫理からの洞察を用いて、注意、軽視、責任などの規則を定義して、疫学的またはアレタリックな不確実性の下で反応を導く。
これらのルールは軽量なPrologエンジンにエンコードされ、不確実なレベル(低、中、高)が、平易な言語理性を持ったシステムアクションをトリガーする。
シナリオベースのシミュレーションは、ルールカバレッジ、公正性、信頼のキャリブレーションをベンチマークする。
臨床的および法的領域におけるユースケースは、道徳的推論が信頼と解釈可能性をどのように改善するかを示している。
我々のアプローチは、社会的に責任のある自然言語生成のための確率モデルに代わる透明で軽量な代替手段を提供する。
関連論文リスト
- Black Box Deployed -- Functional Criteria for Artificial Moral Agents in the LLM Era [0.0]
従来の倫理的基準は、このミスマッチのため、大きな言語モデル(LLM)では実践的に時代遅れである、と論文は主張する。
本稿では,LLMに基づく人工モラルエージェントを評価するための10種類の機能基準を改訂した。
これらのガイドポストは、私たちが「SMA-LLS」と呼ぶものに適用し、よりアライメントを高め、社会的統合を促進することを目的としている。
論文 参考訳(メタデータ) (2025-07-17T14:39:29Z) - Context Reasoner: Incentivizing Reasoning Capability for Contextualized Privacy and Safety Compliance via Reinforcement Learning [53.92712851223158]
安全とプライバシの問題を文脈整合性(CI)理論に従って文脈整合性問題に定式化する。
CIフレームワークの下では、当社のモデルを3つの重要な規制基準 – EU AI ActとHIPAA – に整合させています。
我々は、安全・プライバシー基準の遵守を高めつつ、文脈推論能力を高めるためにルールベースの報酬を持つ強化学習(RL)を採用している。
論文 参考訳(メタデータ) (2025-05-20T16:40:09Z) - Deliberative Alignment: Reasoning Enables Safer Language Models [64.60765108418062]
モデルセーフティ仕様を教える新しいパラダイムであるDeliberative Alignmentを紹介します。
このアプローチを使ってOpenAIのoシリーズモデルを整列させ、人書きのチェーンや回答を必要とせず、OpenAIの安全ポリシーに極めて正確な順守を実現しました。
論文 参考訳(メタデータ) (2024-12-20T21:00:11Z) - Hybrid Approaches for Moral Value Alignment in AI Agents: a Manifesto [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
連続体としてモデル化された機械に道徳を導入する問題に対する既存のアプローチの体系化を提供する。
我々は、適応可能で堅牢だが制御可能で解釈可能なエージェントシステムを構築するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Rule By Example: Harnessing Logical Rules for Explainable Hate Speech
Detection [13.772240348963303]
Rule By Example(RBE)は、テキストコンテンツモデレーションのタスクに対する論理規則から学習するための、新規なコントラスト学習手法である。
RBEはルール基底の予測を提供することができ、典型的なディープラーニングベースのアプローチと比較して説明可能でカスタマイズ可能な予測を可能にする。
論文 参考訳(メタデータ) (2023-07-24T16:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。