論文の概要: Explainable Ethical Assessment on Human Behaviors by Generating Conflicting Social Norms
- arxiv url: http://arxiv.org/abs/2512.15793v1
- Date: Tue, 16 Dec 2025 09:04:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.722313
- Title: Explainable Ethical Assessment on Human Behaviors by Generating Conflicting Social Norms
- Title(参考訳): 対立する社会的ノルムの生成による人間の行動に関する説明可能な倫理的評価
- Authors: Yuxi Sun, Wei Gao, Hongzhan Lin, Jing Ma, Wenxuan Zhang,
- Abstract要約: 我々は,有病率予測と説明力を高めるための新しい倫理的評価手法であるtextitEthicを紹介する。
提案手法は,強いベースラインアプローチよりも優れており,人的評価により,生成した社会的規範が妥当な説明を提供することを確認した。
- 参考スコア(独自算出の注目度): 25.931377041506455
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human behaviors are often guided or constrained by social norms, which are defined as shared, commonsense rules. For example, underlying an action ``\textit{report a witnessed crime}" are social norms that inform our conduct, such as ``\textit{It is expected to be brave to report crimes}''. Current AI systems that assess valence (i.e., support or oppose) of human actions by leveraging large-scale data training not grounded on explicit norms may be difficult to explain, and thus untrustworthy. Emulating human assessors by considering social norms can help AI models better understand and predict valence. While multiple norms come into play, conflicting norms can create tension and directly influence human behavior. For example, when deciding whether to ``\textit{report a witnessed crime}'', one may balance \textit{bravery} against \textit{self-protection}. In this paper, we introduce \textit{ClarityEthic}, a novel ethical assessment approach, to enhance valence prediction and explanation by generating conflicting social norms behind human actions, which strengthens the moral reasoning capabilities of language models by using a contrastive learning strategy. Extensive experiments demonstrate that our method outperforms strong baseline approaches, and human evaluations confirm that the generated social norms provide plausible explanations for the assessment of human behaviors.
- Abstract(参考訳): 人間の行動は、しばしば共有常識ルールとして定義される社会的規範によって導かれるか制約される。
例えば、「`\textit{report a witnessed crime}」は「``\textit{It is be brave to report crimes}'」のような行動を伝える社会的規範である。
現在のAIシステムは、明示的な規範に基づいていない大規模なデータトレーニングを活用することで、人間の行動の価値(すなわち、サポートまたは反対)を評価することは、説明が難しいため、信頼できない。
社会的規範を考慮することで人間の評価をエミュレートすることは、AIモデルをよりよく理解し、価値を予測するのに役立つ。
複数の規範が成立する一方で、矛盾する規範は緊張を生じさせ、人間の行動に直接影響を及ぼす。
例えば、 ``\textit{report a witnessed crime}'' を決めた場合、 \textit{bravery} と \textit{self- protection} のバランスをとることができる。
本稿では,新たな倫理的評価手法である「textit{ClarityEthic}」を導入し,人間の行動の背後にある矛盾する社会的規範を生み出すことにより,価値の予測と説明の促進を図り,対照的な学習戦略を用いて言語モデルの道徳的推論能力を強化する。
大規模な実験により,本手法は強いベースラインアプローチよりも優れており,人的評価は,生成した社会的規範が人間の行動評価に有効な説明を提供することを示す。
関連論文リスト
- Cultural Compass: A Framework for Organizing Societal Norms to Detect Violations in Human-AI Conversations [29.660677031436308]
我々は、モデルが認識すべき人間-AIの規範と、人間-AIの相互作用そのものに適用すべき人間-AIの相互作用規範とを区別する規範の分類法を導入する。
我々は,自然主義的,オープンエンドな環境下でのモデルのノルム順守を自動的に評価するために,我々の分類をいかに運用するかを示す。
論文 参考訳(メタデータ) (2026-01-12T20:11:40Z) - EgoNormia: Benchmarking Physical Social Norm Understanding [52.87904722234434]
EGONORMIAは、安全性、プライバシ、プロキシ、丁寧さ、協力性、コーディネーション/プロアクティビティ、コミュニケーション/レポータビリティの7つの標準カテゴリにまたがる。
我々の研究は、現在の最先端のビジョン言語モデル(VLM)は、堅固な標準理解が欠如していることを示し、EGONORMIAでは最大54%、EGONORMIAでは65%と評価された。
論文 参考訳(メタデータ) (2025-02-27T19:54:16Z) - ClarityEthic: Explainable Moral Judgment Utilizing Contrastive Ethical Insights from Large Language Models [30.301864398780648]
我々は、LLMの推論能力と対照的な学習を活用して関連する社会的規範を明らかにする、textitEthicと呼ばれる新しい道徳的判断手法を導入する。
本手法は,道徳的判断課題における最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-12-17T12:22:44Z) - The Reasonable Person Standard for AI [0.0]
アメリカの法制度では、しばしば「合理的な人格基準」を用いる。
本稿では、合理的な人格基準が、モデルで開発、調査、ストレステストを行うべき行動の種類について有用なガイドラインを提供すると論じる。
論文 参考訳(メタデータ) (2024-06-07T06:35:54Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Sociocultural Norm Similarities and Differences via Situational
Alignment and Explainable Textual Entailment [31.929550141633218]
本研究では,中国文化とアメリカ文化にまたがる社会規範の発見と比較のための新しいアプローチを提案する。
我々は、中国とアメリカの文化の社会状況に合わせて、3,069の社会的規範の高品質なデータセットを構築します。
モデルが文化全体にわたって社会的規範を推論する能力をテストするために,説明可能な社会的規範の包含という課題を導入する。
論文 参考訳(メタデータ) (2023-05-23T19:43:47Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Moral Stories: Situated Reasoning about Norms, Intents, Actions, and
their Consequences [36.884156839960184]
現代のNLGモデルが社会環境にデプロイされたシステムの行動優先度として機能するかどうかを検討する。
本研究では,「モラルストーリー」という,階層的,分枝的なナラティブのクラウドソーシングデータセットを導入し,基礎的,目標指向の社会推論の研究を行う。
論文 参考訳(メタデータ) (2020-12-31T17:28:01Z) - Social Chemistry 101: Learning to Reason about Social and Moral Norms [73.23298385380636]
我々は、人々の日常的な社会的規範と道徳的判断を研究するための新しい概念的形式主義である社会化学を提示する。
Social-Chem-101は大規模なコーパスで292Kのルールをカタログ化している。
モデルフレームワークであるNeural Norm Transformerは、Social-Chem-101を学習し、一般化し、これまで見つからなかった状況の推論に成功した。
論文 参考訳(メタデータ) (2020-11-01T20:16:45Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。