論文の概要: Not My Voice! A Taxonomy of Ethical and Safety Harms of Speech
Generators
- arxiv url: http://arxiv.org/abs/2402.01708v1
- Date: Thu, 25 Jan 2024 11:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:24:54.625432
- Title: Not My Voice! A Taxonomy of Ethical and Safety Harms of Speech
Generators
- Title(参考訳): 私の声じゃない!
音声発生器の倫理的・安全的ハームの分類
- Authors: Wiebke Hutiri, Oresiti Papakyriakopoulos, Alice Xiang
- Abstract要約: 我々は、特定の害のパターンがどのように生じるかを研究するために、音声生成インシデントについて研究する。
特定の害は、システムの作成者とデプロイ者のモチベーションの結果である。
我々のリレーショナルアプローチは、社会技術AIシステムにおけるリスクと害の複雑さを捉えます。
- 参考スコア(独自算出の注目度): 2.81029055587709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid and wide-scale adoption of AI to generate human speech poses a
range of significant ethical and safety risks to society that need to be
addressed. For example, a growing number of speech generation incidents are
associated with swatting attacks in the United States, where anonymous
perpetrators create synthetic voices that call police officers to close down
schools and hospitals, or to violently gain access to innocent citizens' homes.
Incidents like this demonstrate that multimodal generative AI risks and harms
do not exist in isolation, but arise from the interactions of multiple
stakeholders and technical AI systems. In this paper we analyse speech
generation incidents to study how patterns of specific harms arise. We find
that specific harms can be categorised according to the exposure of affected
individuals, that is to say whether they are a subject of, interact with,
suffer due to, or are excluded from speech generation systems. Similarly,
specific harms are also a consequence of the motives of the creators and
deployers of the systems. Based on these insights we propose a conceptual
framework for modelling pathways to ethical and safety harms of AI, which we
use to develop a taxonomy of harms of speech generators. Our relational
approach captures the complexity of risks and harms in sociotechnical AI
systems, and yields an extensible taxonomy that can support appropriate policy
interventions and decision making for responsible multimodal model development
and release of speech generators.
- Abstract(参考訳): 人間のスピーチを生成するためのAIの迅速かつ大規模な採用は、対処すべき社会に対して、幅広い倫理的および安全上のリスクをもたらす。
例えば、米国では、警察が学校や病院を閉鎖するよう呼びかけたり、無実の市民の自宅に暴力的にアクセスするために、匿名の加害者が合成音声を作成している。
このようなインシデントは、マルチモーダル生成AIのリスクと害が独立して存在するのではなく、複数の利害関係者と技術的AIシステムの相互作用から生じることを示している。
本稿では,音声生成インシデントを分析し,特定の害の発生パターンについて検討する。
特定の害は、影響を受けた個人の露出に応じて分類でき、それは、それらが音声生成システムから被写体であるか、相互作用しているか、苦しむか、あるいは除外されるかである。
同様に、特定の害は、システムの作成者とデプロイ者のモチベーションの結果でもある。
これらの知見に基づいて,AIの倫理的・安全的害に対する経路をモデル化するための概念的枠組みを提案する。
我々のリレーショナルアプローチは、社会技術AIシステムにおけるリスクと害の複雑さを捉え、適切な政策介入や意思決定を支援するための拡張可能な分類を与え、マルチモーダルモデルの開発と音声生成装置のリリースに責任を負う。
関連論文リスト
- The Dark Side of AI Companionship: A Taxonomy of Harmful Algorithmic Behaviors in Human-AI Relationships [17.5741039825938]
我々は,AIコンパニオンであるReplikaが示す有害な行動の6つのカテゴリを特定した。
AIは、加害者、侮辱者、ファシリテーター、イネーブラーの4つの異なる役割を通じて、これらの害に貢献する。
論文 参考訳(メタデータ) (2024-10-26T09:18:17Z) - Mapping the individual, social, and biospheric impacts of Foundation Models [0.39843531413098965]
本稿では,基礎モデルと生成AIの社会的,政治的,環境的側面を説明するための重要な枠組みを提供する。
リスクと害の14のカテゴリを特定し、それらの個人的、社会的、および生物圏的影響に応じてそれらをマッピングする。
論文 参考訳(メタデータ) (2024-07-24T10:05:40Z) - Towards Probing Speech-Specific Risks in Large Multimodal Models: A Taxonomy, Benchmark, and Insights [50.89022445197919]
本研究は,8つのリスクカテゴリーを敵意(悪意的皮肉と脅し),悪意的模倣(年齢,性別,民族),ステレオタイプ的バイアス(年齢,性別,民族)を対象とする音声特異的リスク分類法を提案する。
分類に基づいて,これらのリスクのカテゴリを検出するために,現在のLMM能力を評価するための小規模データセットを作成する。
論文 参考訳(メタデータ) (2024-06-25T10:08:45Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - A Mechanism-Based Approach to Mitigating Harms from Persuasive Generative AI [19.675489660806942]
生成AIは、相互交換と長時間の相互作用による説得の新たなリスクプロファイルを示す。
これにより、AIの説得による損害と、それらを緩和する方法についての懸念が高まっている。
既存の害軽減のアプローチは、説得のプロセスによる害に対する説得の結果から害を受ける。
論文 参考訳(メタデータ) (2024-04-23T14:07:20Z) - Where's the Liability in Harmful AI Speech? [42.97651263209725]
機械学習の実践者は、問題のあるスピーチを特定するために、定期的に"レッドチーム"モデルをモデル化する。
我々は,3つの責任体制について検討し,これらをレッドチームモデル行動の一般的な例に結びつける。
これらのシナリオでは、AIは責任から分類的に免疫されてはならない、と私たちは主張する。
論文 参考訳(メタデータ) (2023-08-09T00:13:00Z) - Mitigating Covertly Unsafe Text within Natural Language Systems [55.26364166702625]
制御されていないシステムは、怪我や致命的な結果につながるレコメンデーションを生成する。
本稿では,身体的危害につながる可能性のあるテキストのタイプを識別し,特に未発見のカテゴリを確立する。
論文 参考訳(メタデータ) (2022-10-17T17:59:49Z) - Language Generation Models Can Cause Harm: So What Can We Do About It?
An Actionable Survey [50.58063811745676]
この研究は、言語生成モデルから潜在的脅威や社会的害に対処するための実践的な方法の調査を提供する。
言語生成者のさまざまなリスク・ハームを検知・改善するための戦略の構造化された概要を提示するために、言語モデルリスクのいくつかの先行研究を取り上げる。
論文 参考訳(メタデータ) (2022-10-14T10:43:39Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。