論文の概要: Ethical Considerations and Policy Implications for Large Language
Models: Guiding Responsible Development and Deployment
- arxiv url: http://arxiv.org/abs/2308.02678v1
- Date: Tue, 1 Aug 2023 07:21:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 00:48:56.151151
- Title: Ethical Considerations and Policy Implications for Large Language
Models: Guiding Responsible Development and Deployment
- Title(参考訳): 大規模言語モデルの倫理的考察と政策的意味:責任ある開発と展開を導く
- Authors: Jianyi Zhang, Xu Ji, Zhangchi Zhao, Xiali Hei, Kim-Kwang Raymond Choo
- Abstract要約: 本稿では,コンテンツ生成における大規模言語モデル(LLM)の倫理的考察と意義について考察する。
生成AIプログラムの肯定的および否定的な使用の可能性を強調し、アウトプットに責任を割り当てる際の課題を探求する。
- 参考スコア(独自算出の注目度): 48.72819550642584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper examines the ethical considerations and implications of large
language models (LLMs) in generating content. It highlights the potential for
both positive and negative uses of generative AI programs and explores the
challenges in assigning responsibility for their outputs. The discussion
emphasizes the need for proactive ethical frameworks and policy measures to
guide the responsible development and deployment of LLMs.
- Abstract(参考訳): 本稿では,コンテンツ生成における大規模言語モデル(LLM)の倫理的考察と意義について考察する。
生成AIプログラムの肯定的および否定的な使用の可能性を強調し、アウトプットに責任を割り当てる際の課題を探求する。
この議論は、LCMの責任ある開発と展開を導くための積極的倫理的枠組みと政策措置の必要性を強調している。
関連論文リスト
- A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity [1.9806397201363817]
本稿では、欧州連合の文脈におけるジェネレーティブAIと大規模言語モデル(LLM)の法的および規制的意味について述べる。
責任、プライバシー、知的財産権、サイバーセキュリティの側面を分析する。
生成モデルの安全性とコンプライアンスを保証するためのレコメンデーションを提案している。
論文 参考訳(メタデータ) (2024-01-14T19:16:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A collection of principles for guiding and evaluating large language
models [5.412690203810726]
文献から220の原則のリストを特定し、キュレートし、37のコア原則を7つのカテゴリに分類する。
われわれは、主観的重要性の専門家に異なる原則を課す、小規模の専門家調査を実施している。
原則の共有モデルの開発は、複数の目的を達成することができると想定しています。
論文 参考訳(メタデータ) (2023-12-04T12:06:12Z) - Responsible AI Research Needs Impact Statements Too [51.37368267352821]
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
論文 参考訳(メタデータ) (2023-11-20T14:02:28Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Applying Standards to Advance Upstream & Downstream Ethics in Large
Language Models [0.0]
本稿では,AIが生成するコンテンツの保護をAI所有者がいかに開発できるかを考察する。
他のコンテンツ制作業界では、行動規範や倫理基準が確立されている。
論文 参考訳(メタデータ) (2023-06-06T08:47:42Z) - Responsible Design Patterns for Machine Learning Pipelines [10.184056098238765]
AI倫理には、AIシステムのライフサイクル全体に倫理的原則を適用することが含まれる。
これは、バイアスなどのAIに関連する潜在的なリスクと害を軽減するために不可欠である。
この目標を達成するために、責任あるデザインパターン(RDP)は機械学習(ML)パイプラインに不可欠である。
論文 参考訳(メタデータ) (2023-05-31T15:47:12Z) - Interpretable deep-learning models to help achieve the Sustainable
Development Goals [0.0]
我々は、解釈可能な人工知能(AI)モデルに対する私たちの洞察と、倫理的AIシステムの開発におけるそれらの重要性について論じる。
深層学習法から真に解釈可能なモデル、例えば帰納的バイアスによって得られた記号モデルから抽出する可能性を強調した。
論文 参考訳(メタデータ) (2021-08-24T13:56:15Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。