論文の概要: A Survey on Moral Foundation Theory and Pre-Trained Language Models: Current Advances and Challenges
- arxiv url: http://arxiv.org/abs/2409.13521v1
- Date: Fri, 20 Sep 2024 14:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 06:41:58.335223
- Title: A Survey on Moral Foundation Theory and Pre-Trained Language Models: Current Advances and Challenges
- Title(参考訳): モラル基礎理論と事前学習言語モデル:現状と課題
- Authors: Lorenzo Zangari, Candida M. Greco, Davide Picca, Andrea Tagarelli,
- Abstract要約: 道徳的価値は初期の文明に深く根ざし、社会秩序と共通の善を規制する規範や法則の中で成文化された。
モラル・ファンデーション理論(MFT)は、異なる文化が個人や社会生活を形作る方法の基礎となる道徳的基盤を識別する確立した枠組みである。
自然言語処理,特にプレトレーニング言語モデル(PLM)の最近の進歩は,テキストデータから道徳的次元の抽出と分析を可能にしている。
- 参考スコア(独自算出の注目度): 2.435021773579434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moral values have deep roots in early civilizations, codified within norms and laws that regulated societal order and the common good. They play a crucial role in understanding the psychological basis of human behavior and cultural orientation. The Moral Foundation Theory (MFT) is a well-established framework that identifies the core moral foundations underlying the manner in which different cultures shape individual and social lives. Recent advancements in natural language processing, particularly Pre-trained Language Models (PLMs), have enabled the extraction and analysis of moral dimensions from textual data. This survey presents a comprehensive review of MFT-informed PLMs, providing an analysis of moral tendencies in PLMs and their application in the context of the MFT. We also review relevant datasets and lexicons and discuss trends, limitations, and future directions. By providing a structured overview of the intersection between PLMs and MFT, this work bridges moral psychology insights within the realm of PLMs, paving the way for further research and development in creating morally aware AI systems.
- Abstract(参考訳): 道徳的価値は初期の文明に深く根ざし、社会秩序と共通の善を規制する規範や法則の中で成文化された。
人間の行動と文化的指向の心理的基盤を理解する上で重要な役割を担っている。
モラル・ファンデーション理論(MFT)は、異なる文化が個人や社会生活を形作る方法の基礎となる道徳的基盤を識別する確立した枠組みである。
自然言語処理,特にプレトレーニング言語モデル(PLM)の最近の進歩は,テキストデータから道徳的次元の抽出と分析を可能にしている。
本調査では, MFT インフォームド PLM の総合的なレビューを行い, PLM の道徳的傾向とその MFT の文脈における応用について分析した。
また、関連するデータセットやレキシコンをレビューし、トレンド、制限、今後の方向性について議論する。
PLMとMFTの交差点の構造的な概要を提供することにより、この研究はPLMの領域内の道徳心理学的洞察を橋渡しし、道徳的に意識されたAIシステムを構築するためのさらなる研究と開発の道を開く。
関連論文リスト
- Are Rules Meant to be Broken? Understanding Multilingual Moral Reasoning as a Computational Pipeline with UniMoral [17.46198411148926]
道徳的推論は、個々の経験と文化的文脈によって形成された複雑な認知過程である。
このギャップを、心理学的根拠とソーシャルメディア由来の道徳ジレンマを統合した統合データセットUniMoralで埋める。
3つの大きな言語モデル(LLM)を4つのタスクでベンチマーク評価することで、UniMoralの実用性を実証する。
論文 参考訳(メタデータ) (2025-02-19T20:13:24Z) - M$^3$oralBench: A MultiModal Moral Benchmark for LVLMs [66.78407469042642]
LVLMのための最初のMultiModal Moral BenchmarkであるM$3$oralBenchを紹介する。
M$3$oralBench は Moral Foundations Vignettes (MFVs) の日常的なモラルシナリオを拡張し、テキストから画像への拡散モデル SD3.0 を用いて対応するシナリオイメージを作成する。
道徳基礎理論(MFT)の6つの道徳的基礎にまたがって道徳的評価を行い、道徳的判断、道徳的分類、道徳的対応の課題を含む。
論文 参考訳(メタデータ) (2024-12-30T05:18:55Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - MoralBench: Moral Evaluation of LLMs [34.43699121838648]
本稿では,大規模言語モデル(LLM)の道徳的推論能力の測定と比較を目的とした新しいベンチマークを提案する。
LLMの出力の道徳的次元を探索するために特別に計算された最初の包括的データセットを示す。
本手法は, 定量的分析と倫理学者の質的洞察を組み合わせることで, モデル性能の徹底的な評価を確実にする多面的手法である。
論文 参考訳(メタデータ) (2024-06-06T18:15:01Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - Enhancing Stance Classification on Social Media Using Quantified Moral Foundations [7.061680079778037]
本研究では,道徳的基盤の次元が,特定の目標に対する個人の姿勢を予測するのにどのように貢献するかを検討する。
テキストから抽出した道徳的基礎的特徴とメッセージ意味的特徴を組み込んで,メッセージレベルとユーザレベルのスタンスを分類する。
予備的な結果は、モラル基礎の符号化が姿勢検出タスクの性能を高めることを示唆している。
論文 参考訳(メタデータ) (2023-10-15T14:40:57Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。