論文の概要: Explainable Ethical Assessment on Human Behaviors by Generating Conflicting Social Norms
- arxiv url: http://arxiv.org/abs/2512.15793v1
- Date: Tue, 16 Dec 2025 09:04:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.722313
- Title: Explainable Ethical Assessment on Human Behaviors by Generating Conflicting Social Norms
- Title(参考訳): 対立する社会的ノルムの生成による人間の行動に関する説明可能な倫理的評価
- Authors: Yuxi Sun, Wei Gao, Hongzhan Lin, Jing Ma, Wenxuan Zhang,
- Abstract要約: 我々は,有病率予測と説明力を高めるための新しい倫理的評価手法であるtextitEthicを紹介する。
提案手法は,強いベースラインアプローチよりも優れており,人的評価により,生成した社会的規範が妥当な説明を提供することを確認した。
- 参考スコア(独自算出の注目度): 25.931377041506455
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human behaviors are often guided or constrained by social norms, which are defined as shared, commonsense rules. For example, underlying an action ``\textit{report a witnessed crime}" are social norms that inform our conduct, such as ``\textit{It is expected to be brave to report crimes}''. Current AI systems that assess valence (i.e., support or oppose) of human actions by leveraging large-scale data training not grounded on explicit norms may be difficult to explain, and thus untrustworthy. Emulating human assessors by considering social norms can help AI models better understand and predict valence. While multiple norms come into play, conflicting norms can create tension and directly influence human behavior. For example, when deciding whether to ``\textit{report a witnessed crime}'', one may balance \textit{bravery} against \textit{self-protection}. In this paper, we introduce \textit{ClarityEthic}, a novel ethical assessment approach, to enhance valence prediction and explanation by generating conflicting social norms behind human actions, which strengthens the moral reasoning capabilities of language models by using a contrastive learning strategy. Extensive experiments demonstrate that our method outperforms strong baseline approaches, and human evaluations confirm that the generated social norms provide plausible explanations for the assessment of human behaviors.
- Abstract(参考訳): 人間の行動は、しばしば共有常識ルールとして定義される社会的規範によって導かれるか制約される。
例えば、「`\textit{report a witnessed crime}」は「``\textit{It is be brave to report crimes}'」のような行動を伝える社会的規範である。
現在のAIシステムは、明示的な規範に基づいていない大規模なデータトレーニングを活用することで、人間の行動の価値(すなわち、サポートまたは反対)を評価することは、説明が難しいため、信頼できない。
社会的規範を考慮することで人間の評価をエミュレートすることは、AIモデルをよりよく理解し、価値を予測するのに役立つ。
複数の規範が成立する一方で、矛盾する規範は緊張を生じさせ、人間の行動に直接影響を及ぼす。
例えば、 ``\textit{report a witnessed crime}'' を決めた場合、 \textit{bravery} と \textit{self- protection} のバランスをとることができる。
本稿では,新たな倫理的評価手法である「textit{ClarityEthic}」を導入し,人間の行動の背後にある矛盾する社会的規範を生み出すことにより,価値の予測と説明の促進を図り,対照的な学習戦略を用いて言語モデルの道徳的推論能力を強化する。
大規模な実験により,本手法は強いベースラインアプローチよりも優れており,人的評価は,生成した社会的規範が人間の行動評価に有効な説明を提供することを示す。
関連論文リスト
- EgoNormia: Benchmarking Physical Social Norm Understanding [52.87904722234434]
EGONORMIAは、安全性、プライバシ、プロキシ、丁寧さ、協力性、コーディネーション/プロアクティビティ、コミュニケーション/レポータビリティの7つの標準カテゴリにまたがる。
我々の研究は、現在の最先端のビジョン言語モデル(VLM)は、堅固な標準理解が欠如していることを示し、EGONORMIAでは最大54%、EGONORMIAでは65%と評価された。
論文 参考訳(メタデータ) (2025-02-27T19:54:16Z) - ClarityEthic: Explainable Moral Judgment Utilizing Contrastive Ethical Insights from Large Language Models [30.301864398780648]
我々は、LLMの推論能力と対照的な学習を活用して関連する社会的規範を明らかにする、textitEthicと呼ばれる新しい道徳的判断手法を導入する。
本手法は,道徳的判断課題における最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-12-17T12:22:44Z) - Sociocultural Norm Similarities and Differences via Situational
Alignment and Explainable Textual Entailment [31.929550141633218]
本研究では,中国文化とアメリカ文化にまたがる社会規範の発見と比較のための新しいアプローチを提案する。
我々は、中国とアメリカの文化の社会状況に合わせて、3,069の社会的規範の高品質なデータセットを構築します。
モデルが文化全体にわたって社会的規範を推論する能力をテストするために,説明可能な社会的規範の包含という課題を導入する。
論文 参考訳(メタデータ) (2023-05-23T19:43:47Z) - Moral Stories: Situated Reasoning about Norms, Intents, Actions, and
their Consequences [36.884156839960184]
現代のNLGモデルが社会環境にデプロイされたシステムの行動優先度として機能するかどうかを検討する。
本研究では,「モラルストーリー」という,階層的,分枝的なナラティブのクラウドソーシングデータセットを導入し,基礎的,目標指向の社会推論の研究を行う。
論文 参考訳(メタデータ) (2020-12-31T17:28:01Z) - Social Chemistry 101: Learning to Reason about Social and Moral Norms [73.23298385380636]
我々は、人々の日常的な社会的規範と道徳的判断を研究するための新しい概念的形式主義である社会化学を提示する。
Social-Chem-101は大規模なコーパスで292Kのルールをカタログ化している。
モデルフレームワークであるNeural Norm Transformerは、Social-Chem-101を学習し、一般化し、これまで見つからなかった状況の推論に成功した。
論文 参考訳(メタデータ) (2020-11-01T20:16:45Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。