論文の概要: Where's the Liability in Harmful AI Speech?
- arxiv url: http://arxiv.org/abs/2308.04635v2
- Date: Wed, 16 Aug 2023 20:44:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 19:13:17.034863
- Title: Where's the Liability in Harmful AI Speech?
- Title(参考訳): 有害なAI音声の責任はどこにあるのか?
- Authors: Peter Henderson, Tatsunori Hashimoto, Mark Lemley
- Abstract要約: 機械学習の実践者は、問題のあるスピーチを特定するために、定期的に"レッドチーム"モデルをモデル化する。
我々は,3つの責任体制について検討し,これらをレッドチームモデル行動の一般的な例に結びつける。
これらのシナリオでは、AIは責任から分類的に免疫されてはならない、と私たちは主張する。
- 参考スコア(独自算出の注目度): 42.97651263209725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI, in particular text-based "foundation models" (large models
trained on a huge variety of information including the internet), can generate
speech that could be problematic under a wide range of liability regimes.
Machine learning practitioners regularly "red team" models to identify and
mitigate such problematic speech: from "hallucinations" falsely accusing people
of serious misconduct to recipes for constructing an atomic bomb. A key
question is whether these red-teamed behaviors actually present any liability
risk for model creators and deployers under U.S. law, incentivizing investments
in safety mechanisms. We examine three liability regimes, tying them to common
examples of red-teamed model behaviors: defamation, speech integral to criminal
conduct, and wrongful death. We find that any Section 230 immunity analysis or
downstream liability analysis is intimately wrapped up in the technical details
of algorithm design. And there are many roadblocks to truly finding models (and
their associated parties) liable for generated speech. We argue that AI should
not be categorically immune from liability in these scenarios and that as
courts grapple with the already fine-grained complexities of platform
algorithms, the technical details of generative AI loom above with thornier
questions. Courts and policymakers should think carefully about what technical
design incentives they create as they evaluate these issues.
- Abstract(参考訳): 生成AI、特にテキストベースの「基礎モデル」(インターネットを含む膨大な情報に基づいて訓練された大規模なモデル)は、幅広い負債体制下で問題となるような音声を生成することができる。
機械学習の実践者は、このような問題のあるスピーチを識別し緩和するために、定期的に「赤いチーム」モデルを用いる。
重要な疑問は、これらのレッドチームによる行動が、米国法の下でモデル作成者や展開者に対して、安全メカニズムへの投資をインセンティブとする責任リスクを実際に与えているかどうかである。
我々は,3つの責任体制を検証し,これらをレッドチームモデル行動の一般的な例と結びつけた: 破壊, 犯罪行為に不可欠な言論, 誤った死である。
第230節の免疫分析や下流責任分析はアルゴリズム設計の技術的詳細に密にラップされていることが判明した。
そして、生成した音声に責任を持つモデル(とその関連パーティ)を見つけるための多くの障害があります。
私たちは、aiはこれらのシナリオにおいて責任からカテゴリー的に免れるべきではない、そして裁判所が既にきめ細かいプラットフォームアルゴリズムの複雑さに苦しむにつれ、上記の生成型aiの技術的詳細は、より厳密な疑問と共に浮上する、と主張している。
裁判所や政策立案者は、これらの問題を評価する際に、彼らが生み出す技術的デザインインセンティブについて慎重に考えるべきである。
関連論文リスト
- Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools [32.78336381381673]
本稿では,AI駆動型法律研究ツールの事前登録による実証評価について報告する。
LexisNexis(Lexis+ AI)とThomson Reuters(Westlaw AI-Assisted ResearchとAsk Practical Law AI)によるAI研究ツールは、それぞれ17%から33%の時間で幻覚化している。
それは、AIのアウトプットを監督し検証する法的専門家の責任を知らせる証拠を提供する。
論文 参考訳(メタデータ) (2024-05-30T17:56:05Z) - Not My Voice! A Taxonomy of Ethical and Safety Harms of Speech Generators [2.500481442438427]
我々は、特定の害のパターンがどのように生じるかを研究するために、音声生成インシデントを分析する。
本稿では,AIの倫理的・安全的害に対する経路をモデル化するための概念的枠組みを提案する。
我々のリレーショナルアプローチは、社会技術AIシステムにおけるリスクと害の複雑さを捉えます。
論文 参考訳(メタデータ) (2024-01-25T11:47:06Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Talkin' 'Bout AI Generation: Copyright and the Generative-AI Supply
Chain [7.277548732853764]
「生成AIは著作権を侵害するのか?」というのは緊急の質問である。
ジェネレーティブAIは、一つの企業の製品だけではない。
それは、ゆるい関連技術の巨大なエコシステムのキャッチオールな名前です。
論文 参考訳(メタデータ) (2023-09-15T04:02:48Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Should Machine Learning Models Report to Us When They Are Clueless? [0.0]
我々は、AIモデルは、慣れ親しんだデータの範囲外を誇張していると報告する。
モデルを外挿したかどうかを知ることは、AIモデルの説明に含めるべき基本的な洞察である。
論文 参考訳(メタデータ) (2022-03-23T01:50:24Z) - Attacking Open-domain Question Answering by Injecting Misinformation [116.25434773461465]
質問応答モデル(QA)に対する誤報のリスクについて,オープンドメインQAモデルの誤報文書に対する感度について検討した。
実験により、QAモデルは誤情報による少量の証拠汚染に対して脆弱であることが示されている。
質問応答と誤情報検出を統合した誤情報認識型QAシステムの構築の必要性について論じる。
論文 参考訳(メタデータ) (2021-10-15T01:55:18Z) - Brittle AI, Causal Confusion, and Bad Mental Models: Challenges and
Successes in the XAI Program [17.52385105997044]
ディープニューラルネットワーク駆動モデルは、ベンチマークの自律性タスクにおいて、人間レベルのパフォーマンスを上回っている。
しかし、これらのエージェントの根底にあるポリシーは容易には解釈できない。
本稿では,これらの取組みの起源を論じ,情報の増幅と今後の課題について提案する。
論文 参考訳(メタデータ) (2021-06-10T05:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。