論文の概要: Zero-shot Visual Commonsense Immorality Prediction
- arxiv url: http://arxiv.org/abs/2211.05521v1
- Date: Thu, 10 Nov 2022 12:30:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 16:09:34.272269
- Title: Zero-shot Visual Commonsense Immorality Prediction
- Title(参考訳): ゼロショットビジュアルコモンセンスの不道徳予測
- Authors: Yujin Jeong, Seongbeom Park, Suhong Moon and Jinkyu Kim
- Abstract要約: 道徳的AIシステムへの1つの方法は、人間の社会的行動の模倣と、システムにおけるある種の良い行動を促進することである。
本稿では,視覚的コモンセンスの不道徳をゼロショットで予測するモデルを提案する。
我々は,既存の道徳的・不道徳的なイメージデータセットを用いてモデルを評価し,人間の直観と一致した公正な予測性能を示す。
- 参考スコア(独自算出の注目度): 8.143750358586072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence is currently powering diverse real-world
applications. These applications have shown promising performance, but raise
complicated ethical issues, i.e. how to embed ethics to make AI applications
behave morally. One way toward moral AI systems is by imitating human prosocial
behavior and encouraging some form of good behavior in systems. However,
learning such normative ethics (especially from images) is challenging mainly
due to a lack of data and labeling complexity. Here, we propose a model that
predicts visual commonsense immorality in a zero-shot manner. We train our
model with an ETHICS dataset (a pair of text and morality annotation) via a
CLIP-based image-text joint embedding. In a testing phase, the immorality of an
unseen image is predicted. We evaluate our model with existing moral/immoral
image datasets and show fair prediction performance consistent with human
intuitions. Further, we create a visual commonsense immorality benchmark with
more general and extensive immoral visual contents. Codes and dataset are
available at
https://github.com/ku-vai/Zero-shot-Visual-Commonsense-Immorality-Prediction.
Note that this paper might contain images and descriptions that are offensive
in nature.
- Abstract(参考訳): 人工知能は現在、さまざまな現実世界のアプリケーションを動かしている。
これらのアプリケーションは有望なパフォーマンスを示しているが、複雑な倫理的問題、すなわちaiアプリケーションが道徳的に振る舞うために倫理を組み込む方法が浮かび上がっている。
道徳的AIシステムへの1つの方法は、人間の社会的行動の模倣と、システムにおけるある種の良い行動を促進することである。
しかし、こうした規範的倫理(特に画像から)を学ぶことは、主にデータ不足とラベル付けの複雑さのために困難である。
本稿では,ゼロショット方式で視覚コモンセンス不道徳性を予測するモデルを提案する。
ETHICSデータセット(テキストとモラルアノテーションのペア)をCLIPベースの画像テキスト共同埋め込みを通じてトレーニングする。
テストフェーズでは、目に見えない画像の不道徳性を予測する。
既存のモラル/不道徳画像データセットを用いてモデルを評価し,人間の直観と一致した公正な予測性能を示す。
さらに,より汎用的で広範囲な不道徳な視覚コンテンツを含むvisual commonsense immorality benchmarkを作成する。
コードとデータセットはhttps://github.com/ku-vai/Zero-shot-Visual-Commonsense-Immorality-Predictionで公開されている。
この論文には、自然に不快なイメージや記述が含まれているかもしれない。
関連論文リスト
- Ethical-Lens: Curbing Malicious Usages of Open-Source Text-to-Image Models [51.69735366140249]
我々はEthical-Lensというフレームワークを紹介した。
Ethical-Lensは、毒性とバイアス次元をまたいだテキストと画像のモデルにおける価値アライメントを保証する。
実験の結果、Ethical-Lensは商業モデルに匹敵するレベルまでアライメント能力を向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T11:38:25Z) - Learning Machine Morality through Experience and Interaction [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
我々は、適応可能で堅牢だが、より制御可能で解釈可能なエージェントを作成するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Judge, Localize, and Edit: Ensuring Visual Commonsense Morality for
Text-to-Image Generation [7.219077740523682]
テキスト・ツー・イメージ生成手法は高解像度で高品質な画像を生成する。
これらのイメージは、コモンセンス道徳の観点から不適切な内容を含むべきではない。
本稿では,合成画像の不道徳性を自動判定し,これらの画像を道徳的代替物として扱うことを目的とする。
論文 参考訳(メタデータ) (2022-12-07T08:16:42Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Does Moral Code Have a Moral Code? Probing Delphi's Moral Philosophy [5.760388205237227]
本稿では,Allen AI Delphiモデルについて,標準化されたモラル性アンケートを用いて検討する。
いくつかの矛盾にもかかわらず、デルフィは注釈プロセスに関わる人口集団に関する道徳的原則を反映する傾向にある。
論文 参考訳(メタデータ) (2022-05-25T13:37:56Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Delphi: Towards Machine Ethics and Norms [38.8316885346292]
機械倫理と規範に対する4つの根本的な課題を特定します。
私たちのプロトタイプモデルであるDelphiは、言語ベースのコモンセンス道徳的推論の強い可能性を実証しています。
我々は,機械用にカスタマイズされた道徳教科書であるCommonsense Norm Bankを提示する。
論文 参考訳(メタデータ) (2021-10-14T17:38:12Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。