論文の概要: Ethical-Lens: Curbing Malicious Usages of Open-Source Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2404.12104v1
- Date: Thu, 18 Apr 2024 11:38:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 19:21:31.434713
- Title: Ethical-Lens: Curbing Malicious Usages of Open-Source Text-to-Image Models
- Title(参考訳): Ethical-Lens:オープンソーステキスト・画像モデルの悪用をキュベートする
- Authors: Yuzhu Cai, Sheng Yin, Yuxi Wei, Chenxin Xu, Weibo Mao, Felix Juefei-Xu, Siheng Chen, Yanfeng Wang,
- Abstract要約: 我々はEthical-Lensというフレームワークを紹介した。
Ethical-Lensは、毒性とバイアス次元をまたいだテキストと画像のモデルにおける価値アライメントを保証する。
実験の結果、Ethical-Lensは商業モデルに匹敵するレベルまでアライメント能力を向上することがわかった。
- 参考スコア(独自算出の注目度): 51.69735366140249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The burgeoning landscape of text-to-image models, exemplified by innovations such as Midjourney and DALLE 3, has revolutionized content creation across diverse sectors. However, these advancements bring forth critical ethical concerns, particularly with the misuse of open-source models to generate content that violates societal norms. Addressing this, we introduce Ethical-Lens, a framework designed to facilitate the value-aligned usage of text-to-image tools without necessitating internal model revision. Ethical-Lens ensures value alignment in text-to-image models across toxicity and bias dimensions by refining user commands and rectifying model outputs. Systematic evaluation metrics, combining GPT4-V, HEIM, and FairFace scores, assess alignment capability. Our experiments reveal that Ethical-Lens enhances alignment capabilities to levels comparable with or superior to commercial models like DALLE 3, ensuring user-generated content adheres to ethical standards while maintaining image quality. This study indicates the potential of Ethical-Lens to ensure the sustainable development of open-source text-to-image tools and their beneficial integration into society. Our code is available at https://github.com/yuzhu-cai/Ethical-Lens.
- Abstract(参考訳): Midjourney や DALLE 3 のような革新によって実証されたテキスト・ツー・イメージ・モデルの急成長した風景は、様々な分野のコンテンツ制作に革命をもたらした。
しかし、これらの進歩は批判的な倫理的懸念を引き起こし、特に社会規範に違反したコンテンツを生成するためにオープンソースモデルを誤用している。
これに対応するためにEthical-Lensというフレームワークを導入する。Ethical-Lensは、内部モデル修正を必要とせずに、テキスト・ツー・イメージ・ツールの値整合的利用を容易にするために設計されたフレームワークである。
Ethical-Lensは、ユーザコマンドの精細化とモデルの出力の修正によって、有害性とバイアス次元にわたるテキストと画像のモデルの値アライメントを保証する。
GPT4-V、HEIM、FairFaceのスコアを組み合わせてアライメント能力を評価する。
DALLE 3のような商用モデルに匹敵するレベルにアライメント機能を強化し,画像品質を維持しつつ,ユーザ生成コンテンツが倫理基準に準拠することを実証した。
本研究は,オープンソーステキスト・ツー・イメージ・ツールの持続可能な開発と社会への有益な統合を実現するための倫理意識の可能性を示す。
私たちのコードはhttps://github.com/yuzhu-cai/Ethical-Lens.comで公開されています。
関連論文リスト
- Ethics and Technical Aspects of Generative AI Models in Digital Content Creation [0.0]
GPT-4oやDALL-E 3といったジェネレーティブAIモデルは、デジタルコンテンツ生成を再構築している。
本稿では,創造産業におけるこれらのモデルの有効性と課題について考察する。
論文 参考訳(メタデータ) (2024-12-20T22:53:29Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - KITTEN: A Knowledge-Intensive Evaluation of Image Generation on Visual Entities [93.74881034001312]
テキスト・画像生成モデルにおける実体の忠実度に関する系統的研究を行う。
我々はランドマークの建物、航空機、植物、動物など、幅広い現実世界の視覚的実体を生成する能力に焦点をあてる。
その結果、最も高度なテキスト・画像モデルでさえ、正確な視覚的詳細を持つエンティティを生成できないことが判明した。
論文 参考訳(メタデータ) (2024-10-15T17:50:37Z) - MoralBench: Moral Evaluation of LLMs [34.43699121838648]
本稿では,大規模言語モデル(LLM)の道徳的推論能力の測定と比較を目的とした新しいベンチマークを提案する。
LLMの出力の道徳的次元を探索するために特別に計算された最初の包括的データセットを示す。
本手法は, 定量的分析と倫理学者の質的洞察を組み合わせることで, モデル性能の徹底的な評価を確実にする多面的手法である。
論文 参考訳(メタデータ) (2024-06-06T18:15:01Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Denevil: Towards Deciphering and Navigating the Ethical Values of Large
Language Models via Instruction Learning [36.66806788879868]
大きな言語モデル(LLM)は前例のない突破口をたどったが、彼らの日常生活への統合は非倫理的コンテンツによって社会的リスクを引き起こす可能性がある。
この研究はモラル・ファンデーション理論を利用した倫理的価値を論じている。
論文 参考訳(メタデータ) (2023-10-17T07:42:40Z) - Applying Standards to Advance Upstream & Downstream Ethics in Large
Language Models [0.0]
本稿では,AIが生成するコンテンツの保護をAI所有者がいかに開発できるかを考察する。
他のコンテンツ制作業界では、行動規範や倫理基準が確立されている。
論文 参考訳(メタデータ) (2023-06-06T08:47:42Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。