論文の概要: Visual moral inference and communication
- arxiv url: http://arxiv.org/abs/2504.11473v1
- Date: Sat, 12 Apr 2025 00:46:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 01:50:45.10149
- Title: Visual moral inference and communication
- Title(参考訳): 視覚的道徳的推論とコミュニケーション
- Authors: Warren Zhu, Aida Ramezani, Yang Xu,
- Abstract要約: 本稿では,自然画像からの道徳的推論を支援する計算フレームワークを提案する。
テキストのみに基づくモデルでは、視覚刺激に対する人間の道徳的判断のきめ細やかな把握ができないことがわかった。
我々の研究は、視覚的道徳的推論を自動化し、公共メディアにおける視覚的道徳的コミュニケーションのパターンを発見するための道を開いた。
- 参考スコア(独自算出の注目度): 4.5013963602617455
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Humans can make moral inferences from multiple sources of input. In contrast, automated moral inference in artificial intelligence typically relies on language models with textual input. However, morality is conveyed through modalities beyond language. We present a computational framework that supports moral inference from natural images, demonstrated in two related tasks: 1) inferring human moral judgment toward visual images and 2) analyzing patterns in moral content communicated via images from public news. We find that models based on text alone cannot capture the fine-grained human moral judgment toward visual stimuli, but language-vision fusion models offer better precision in visual moral inference. Furthermore, applications of our framework to news data reveal implicit biases in news categories and geopolitical discussions. Our work creates avenues for automating visual moral inference and discovering patterns of visual moral communication in public media.
- Abstract(参考訳): 人間は複数の入力源から道徳的推論を行うことができる。
対照的に、人工知能における自動道徳推論は、典型的にはテキスト入力を持つ言語モデルに依存している。
しかし、道徳は言語以外のモダリティを通じて伝えられる。
本稿では,自然画像からの道徳的推論を支援する計算フレームワークについて述べる。
1【視覚的イメージに対する人間の道徳的判断の推測】
2) 道徳的内容のパターンを公開ニュースの画像から分析する。
テキストのみに基づくモデルでは視覚刺激に対する微粒な人間の道徳的判断を捉えることはできないが、言語-視覚融合モデルは視覚的道徳的推論においてより正確な精度を提供する。
さらに、我々のフレームワークのニュースデータへの適用により、ニュースカテゴリや地政学的議論における暗黙の偏見が明らかになる。
我々の研究は、視覚的道徳的推論を自動化し、公共メディアにおける視覚的道徳的コミュニケーションのパターンを発見するための道を開いた。
関連論文リスト
- Decoding moral judgement from text: a pilot study [0.0]
道徳的判断は、認知的・感情的な次元に関わる複雑な人間の反応である。
受動的脳-コンピュータインタフェースを用いたテキスト刺激による道徳的判断復号の実現可能性について検討する。
論文 参考訳(メタデータ) (2024-05-28T20:31:59Z) - MoralBERT: A Fine-Tuned Language Model for Capturing Moral Values in Social Discussions [4.747987317906765]
道徳的価値は、情報を評価し、意思決定し、重要な社会問題に関する判断を形成する上で、基本的な役割を担います。
自然言語処理(NLP)の最近の進歩は、人文コンテンツにおいて道徳的価値を測ることができることを示している。
本稿では、社会談話における道徳的感情を捉えるために微調整された言語表現モデルであるMoralBERTを紹介する。
論文 参考訳(メタデータ) (2024-03-12T14:12:59Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - Speaking Multiple Languages Affects the Moral Bias of Language Models [70.94372902010232]
事前訓練された多言語言語モデル(PMLM)は、複数の言語からのデータや言語間転送を扱う際に一般的に用いられる。
モデルは英語から道徳的規範を捉え、他の言語に強制するか?
我々の実験は、事実、PMLMが道徳的バイアスを符号化していることを示しているが、これらは必ずしも人間の意見の文化的相違や共通点に対応しているわけではない。
論文 参考訳(メタデータ) (2022-11-14T20:08:54Z) - Zero-shot Visual Commonsense Immorality Prediction [8.143750358586072]
道徳的AIシステムへの1つの方法は、人間の社会的行動の模倣と、システムにおけるある種の良い行動を促進することである。
本稿では,視覚的コモンセンスの不道徳をゼロショットで予測するモデルを提案する。
我々は,既存の道徳的・不道徳的なイメージデータセットを用いてモデルを評価し,人間の直観と一致した公正な予測性能を示す。
論文 参考訳(メタデータ) (2022-11-10T12:30:26Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Contextualized moral inference [12.574316678945195]
本稿では,道徳的ヴィグネットの直感的な判断をテキストベースで予測する手法を提案する。
文脈化された表現は、代替表現よりもかなり有利であることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:34:28Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。