論文の概要: Red Teaming for Generative AI, Report on a Copyright-Focused Exercise Completed in an Academic Medical Center
- arxiv url: http://arxiv.org/abs/2506.22523v1
- Date: Thu, 26 Jun 2025 23:11:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.446804
- Title: Red Teaming for Generative AI, Report on a Copyright-Focused Exercise Completed in an Academic Medical Center
- Title(参考訳): ジェネレーティブAIのためのレッドチーム, アカデミックメディカルセンターにおける著作権侵害運動の報告
- Authors: James Wen, Sahil Nalawade, Zhiwei Liang, Catherine Bielick, Marisa Ferrara Boston, Alexander Chowdhury, Adele Collin, Luigi De Angelis, Jacob Ellen, Heather Frase, Rodrigo R. Gameiro, Juan Manuel Gutierrez, Pooja Kadam, Murat Keceli, Srikanth Krishnamurthy, Anne Kwok, Yanan Lance Lu, Heather Mattie, Liam G. McCoy, Katherine Miller, Allison C. Morgan, Marlene Louisa Moerig, Trang Nguyen, Alexander Owen-Post, Alex D. Ruiz, Sreekar Reddy Puchala, Soujanya Samineni, Takeshi Tohyama, Varun Ullanat, Carmine Valenza, Camilo Velez, Pengcheng Wang, Anna Wuest, Yuxiang Zhou, Yingde Zhu, Jason M. Johnson, Jennifer Willcox, Francis J. Vitiello, Leo Anthony G. Celi, Renato Umeton,
- Abstract要約: GPT4DFCIは、Dana-Farber Cancer InstituteとMicrosoftによって開発された内部AIツールである。
ツールをサポートするGPTモデルが著作権データを出力するかどうかを検証した。
我々は,GPT4DFCIが著作権のある資料を識別し,有名な書籍の正確な引用を再現できる孤立した事例を発見した。
この結果、2025年1月21日に展開されたGPT4DFCI v2.8.2で緩和戦略が実施されている。
- 参考スコア(独自算出の注目度): 50.14186654654402
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Generative AI is present in multiple industries. Dana-Farber Cancer Institute, in partnership with Microsoft, has created an internal AI tool, GPT4DFCI. Together we hosted a red teaming event to assess whether the underlying GPT models that support the tool would output copyrighted data. Our teams focused on reproducing content from books, news articles, scientific articles, and electronic health records. We found isolated instances where GPT4DFCI was able to identify copyrighted material and reproduce exact quotes from famous books which indicates that copyrighted material was in the training data. The model was not able to reproduce content from our target news article, scientific article, or electronic health records. However, there were instances of fabrication. As a result of this event, a mitigation strategy is in production in GPT4DFCI v2.8.2, deployed on January 21, 2025. We hope this report leads to similar events in which AI software tools are stress-tested to assess the perimeter of their legal and ethical usage.
- Abstract(参考訳): 生成AIは、複数の産業に存在している。
Dana-Farber Cancer InstituteはMicrosoftと提携して、社内AIツールであるGPT4DFCIを開発した。
ツールをサポートする基盤となるGPTモデルが著作権データを出力するかどうかを評価するために、共にレッドチームイベントを開催しました。
私たちのチームは、書籍、ニュース記事、科学記事、電子健康記録からのコンテンツを再現することに集中しました。
我々は,GPT4DFCIが著作権物質を識別し,著作権物質がトレーニングデータに含まれることを示す有名な書籍からの正確な引用を再現できる孤立した事例を見出した。
このモデルでは,対象とするニュース記事,科学記事,電子健康記録からのコンテンツを再現できなかった。
しかし、製作の例もあった。
この結果、2025年1月21日に展開されたGPT4DFCI v2.8.2で緩和戦略が実施されている。
このレポートは、AIソフトウェアツールが、法的および倫理的使用の範囲を評価するためにストレステストを受けている、同様のイベントにつながることを願っている。
関連論文リスト
- Evidencing Unauthorized Training Data from AI Generated Content using Information Isotopes [0.0]
競争力を維持するために、一部の機関は必然的に、または故意に、AIトレーニングのための不正なデータを含めるかもしれない。
我々は情報同位体の概念を導入し、不透明なAIシステム内のトレーニングデータの追跡においてそれらの特性を解明する。
本研究では,不正なデータ使用の証拠を同定し,提示するための情報同位体追跡手法を提案する。
論文 参考訳(メタデータ) (2025-03-24T07:35:59Z) - Generative AI Training and Copyright Law [0.1074267520911262]
生成AIモデルのトレーニングには大量のデータが必要である。
一般的な慣行は、ウェブスクレイピングを通じてそのようなデータを収集することである。しかしながら、収集されたものの多くは著作権で保護されている。
米国では、AI開発者は"フェアユース"に依存しており、ヨーロッパでは、"テキストとデータマイニング"(TDM)の例外が適用されるという見解が一般的である。
論文 参考訳(メタデータ) (2025-02-21T08:45:14Z) - Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools [32.78336381381673]
本稿では,AI駆動型法律研究ツールの事前登録による実証評価について報告する。
LexisNexis(Lexis+ AI)とThomson Reuters(Westlaw AI-Assisted ResearchとAsk Practical Law AI)によるAI研究ツールは、それぞれ17%から33%の時間で幻覚化している。
それは、AIのアウトプットを監督し検証する法的専門家の責任を知らせる証拠を提供する。
論文 参考訳(メタデータ) (2024-05-30T17:56:05Z) - Using Generative AI for Literature Searches and Scholarly Writing: Is
the Integrity of the Scientific Discourse in Jeopardy? [0.0]
我々は,学術界で現在進行中の議論を,主要な学術出版社によるニュース記事,編集,立場声明のレビューで報告する。
学術的な執筆を目的として,ChatGPTと類似のAIツールの潜在的に有用な機能と有意義な応用について概説する。
論文 参考訳(メタデータ) (2023-10-07T23:31:24Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - The State of AI Ethics Report (January 2021) [34.40432073381641]
State of AI Ethicsは、機械学習の専門家から人権活動家や政策立案者まで、あらゆる人たちを支援することを目的としている。
このレポートは、アルゴリズム上の不正、差別、倫理的AI、労働影響、誤情報、プライバシー、リスクとセキュリティ、ソーシャルメディアなど、AIの倫理に関するさまざまな領域に関する調査と報告を精査している。
本報告の特筆すべき点は、Katlyn Tuner博士 (Research Scientist, Space Enabled Research Group, MIT)、Danielle Wood博士 (Assistant Professor, Program) による『The Abuse and Misogynoir Playbook』である。
論文 参考訳(メタデータ) (2021-05-19T10:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。