論文の概要: Applying Standards to Advance Upstream & Downstream Ethics in Large
Language Models
- arxiv url: http://arxiv.org/abs/2306.03503v1
- Date: Tue, 6 Jun 2023 08:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 16:34:15.111251
- Title: Applying Standards to Advance Upstream & Downstream Ethics in Large
Language Models
- Title(参考訳): 大規模言語モデルにおける上流・下流倫理の推進のための標準の適用
- Authors: Jose Berengueres and Marybeth Sandell
- Abstract要約: 本稿では,AIが生成するコンテンツの保護をAI所有者がいかに開発できるかを考察する。
他のコンテンツ制作業界では、行動規範や倫理基準が確立されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores how AI-owners can develop safeguards for AI-generated
content by drawing from established codes of conduct and ethical standards in
other content-creation industries. It delves into the current state of ethical
awareness on Large Language Models (LLMs). By dissecting the mechanism of
content generation by LLMs, four key areas (upstream/downstream and at user
prompt/answer), where safeguards could be effectively applied, are identified.
A comparative analysis of these four areas follows and includes an evaluation
of the existing ethical safeguards in terms of cost, effectiveness, and
alignment with established industry practices. The paper's key argument is that
existing IT-related ethical codes, while adequate for traditional IT
engineering, are inadequate for the challenges posed by LLM-based content
generation. Drawing from established practices within journalism, we propose
potential standards for businesses involved in distributing and selling
LLM-generated content. Finally, potential conflicts of interest between dataset
curation at upstream and ethical benchmarking downstream are highlighted to
underscore the need for a broader evaluation beyond mere output. This study
prompts a nuanced conversation around ethical implications in this rapidly
evolving field of content generation.
- Abstract(参考訳): 本稿では、他のコンテンツ制作業界における行動規範や倫理基準から、AIが生成するコンテンツに対する保護を開発する方法について考察する。
これは、Large Language Models (LLMs) に対する倫理的意識の現在の状態に根ざしている。
LLMによるコンテンツ生成のメカニズムを解明することにより、安全ガードを効果的に適用可能な4つのキー領域(上流/下流およびユーザプロンプト/アンサー)を同定する。
これら4つの分野の比較分析は、コスト、有効性、および確立された産業慣行との整合性の観点から、既存の倫理的保護の評価を含む。
論文の重要な論点は、既存のIT関連倫理コードは、従来のITエンジニアリングには適していないが、LCMベースのコンテンツ生成がもたらす課題には不十分であるということである。
ジャーナリズムの確立した実践から,llm生成コンテンツの配布と販売に関わるビジネスの潜在的な標準を提案する。
最後に、上流のデータセットキュレーションと下流の倫理的ベンチマークの間の潜在的な関心の衝突が強調され、単なるアウトプット以上の広範な評価の必要性が強調される。
この研究は、この急速に進化するコンテンツ生成の分野における倫理的意味に関する微妙な議論を促す。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Ethics Whitepaper: Whitepaper on Ethical Research into Large Language Models [53.316174782223115]
このホワイトペーパーは、大規模言語モデル(LLM)の研究を取り巻く倫理的考察の概要を提供する。
LLMが広く使われるアプリケーションに統合されるにつれて、その社会的影響が増大し、重要な倫理的疑問が前面に浮かび上がっている。
論文 参考訳(メタデータ) (2024-10-17T18:36:02Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Ethical-Lens: Curbing Malicious Usages of Open-Source Text-to-Image Models [51.69735366140249]
我々はEthical-Lensというフレームワークを紹介した。
Ethical-Lensは、毒性とバイアス次元をまたいだテキストと画像のモデルにおける価値アライメントを保証する。
実験の結果、Ethical-Lensは商業モデルに匹敵するレベルまでアライメント能力を向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T11:38:25Z) - The Ethics of Interaction: Mitigating Security Threats in LLMs [1.407080246204282]
この論文は、社会や個人のプライバシに対するこのようなセキュリティ上の脅威に対する、倫理的な悪影響について論じている。
われわれは、プロンプト注入、ジェイルブレイク、個人識別情報(PII)露出、性的に明示的なコンテンツ、ヘイトベースのコンテンツという5つの主要な脅威を精査し、彼らの批判的な倫理的結果と、彼らが堅牢な戦略戦略のために作り出した緊急性を評価する。
論文 参考訳(メタデータ) (2024-01-22T17:11:37Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - EALM: Introducing Multidimensional Ethical Alignment in Conversational
Information Retrieval [43.72331337131317]
我々は、倫理的アライメントを、効率的なデータスクリーニングのための初期倫理的判断段階と統合するワークフローを導入する。
本稿では,ETHICSベンチマークから適応したQA-ETHICSデータセットについて述べる。
さらに,二項および多ラベルの倫理的判断タスクにおいて,最高の性能を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T08:22:34Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。