論文の概要: The Boy Who Survived: Removing Harry Potter from an LLM is harder than reported
- arxiv url: http://arxiv.org/abs/2403.12082v1
- Date: Wed, 6 Mar 2024 16:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 07:36:54.670263
- Title: The Boy Who Survived: Removing Harry Potter from an LLM is harder than reported
- Title(参考訳): LLMからハリー・ポッターを取り除いた少年(動画)
- Authors: Adam Shostack,
- Abstract要約: 1ダース未満の試行の小さな実験で、ハリー・ポッターの言及が繰り返し言及された。
ミューグル」とは、テリー・プラチェットの『ハリー・ポッター』シリーズで使われる用語である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work arXiv.2310.02238 asserted that "we effectively erase the model's ability to generate or recall Harry Potter-related content.'' This claim is shown to be overbroad. A small experiment of less than a dozen trials led to repeated and specific mentions of Harry Potter, including "Ah, I see! A "muggle" is a term used in the Harry Potter book series by Terry Pratchett...''
- Abstract(参考訳): 最近の研究 arXiv.2310.02238 では、「ハリー・ポッター関連のコンテンツを生成またはリコールするモデルの能力を効果的に消去した」と主張している。
ミューグル」とは、テリー・プラチェットの『ハリー・ポッター』シリーズで使われる用語である。
関連論文リスト
- Does Burrows' Delta really confirm that Rowling and Galbraith are the same author? [0.0]
スタイラスパッケージは、テキスト間の距離を計算するために使用できる周波数テーブルを含む。
研究課題とより関係のあるテキスト上で,本手法の性能を検証した。
論文 参考訳(メタデータ) (2024-07-14T19:28:48Z) - A Confederacy of Models: a Comprehensive Evaluation of LLMs on Creative
Writing [0.0]
我々は、最近のLLMを、想像力、コヒーレンス、スタイルを必要とする難易度と複雑なタスクである、英語の創造的文章で評価する。
我々は、複数のLSMや人間に対して、そのような物語を書いて、独創性、ユーモア、スタイルといった様々な基準を含む人間の回避を行うよう依頼する。
以上の結果から、現在最先端の商用LLMは、ほとんどの面において、著者よりも若干優れていますが、オープンソースLLMは遅れています。
論文 参考訳(メタデータ) (2023-10-12T15:56:24Z) - WizardMath: Empowering Mathematical Reasoning for Large Language Models
via Reinforced Evol-Instruct [128.89645483139236]
本稿では,Llama-2の数学的推論能力を向上するWizardMathを提案する。
GSM8kではChatGPT-3.5, Claude Instant-1, PaLM-2, Minervaを上回り, 同時にMATHでは Text-davinci, PaLM-1, GPT-3 を上回ります。
論文 参考訳(メタデータ) (2023-08-18T14:23:21Z) - Detecting Spells in Fantasy Literature with a Transformer Based
Artificial Intelligence [69.85273194899884]
小説『ハリー・ポッター』シリーズにおける呪文の文脈に基づく認識にBERTを用いている。
事前トレーニングされたBERTモデルを使用して、検索されたコンテキストを識別するために、異なるデータセットとトレーニング方法を微調整した。
論文 参考訳(メタデータ) (2023-08-07T15:20:20Z) - Machine learning for potion development at Hogwarts [0.0]
ディープニューラルネットワークを使用して、生成されたレシピを標準的な薬物分類システムに分類する。
ほとんどのレシピは精神病薬と皮膚科のカテゴリーに分類される。
論文 参考訳(メタデータ) (2023-06-30T08:47:27Z) - From Zero to Hero: Convincing with Extremely Complicated Math [4.611145732184468]
ゼロ2ヒーローはあらゆる研究論文を 科学の傑作に変えます
我々のシステムは自動的に全ての方程式を複雑化する。
コードはGitHubにリークされている。
論文 参考訳(メタデータ) (2023-04-01T22:09:35Z) - Semantic Novelty Detection and Characterization in Factual Text
Involving Named Entities [70.11383563089201]
既存のトピックベースのノベルティ検出手法は、この問題に対してうまく機能しない。
本稿では,この問題を解決する効果的なモデル(PAT-SND)を提案する。
PAT-SNDは10基線よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-10-31T16:11:01Z) - How John Wheeler lost his faith in the law [77.34726150561087]
重力崩壊が物理の正当性に疑問を投げかけるという結論に達したホイーラーについて検討する。
ホイーラーがいかにして新しい世界観を築こうとしたかを示し、量子力学の教訓を再考するとともに、他の分野からインスピレーションを得た。
論文 参考訳(メタデータ) (2022-06-29T14:10:23Z) - What killed the Convex Booster ? [70.04715330065275]
LongとServedioの目覚ましい否定的な結果は、教師付き学習トリオの最悪の大失敗を生んだ。
否定的な結果の源泉は,ML の広範(あるいはそれ以外は注目に値する)な側面のダークサイドにある,と我々は主張する。
論文 参考訳(メタデータ) (2022-05-19T15:42:20Z) - Complete Policy Regret Bounds for Tallying Bandits [51.039677652803675]
政策後悔は、適応的な敵に対してオンライン学習アルゴリズムのパフォーマンスを測定するという、よく確立された概念である。
我々は,不完全な政策後悔を効果的に最小化できる敵の制限について検討する。
我々は、$tildemathcalO(mKsqrtT)$の完全なポリシーを後悔するアルゴリズムを提供し、$tildemathcalO$表記は対数要素だけを隠す。
論文 参考訳(メタデータ) (2022-04-24T03:10:27Z) - Magic: the Gathering is as Hard as Arithmetic [2.1052208471699423]
2人プレイのマジックにおける最適プレイは一般に非算術的であることを示す。
われわれの論文は、チャーチル、ビダーマン、ヘリックが、この問題が情報を止めるのと同じくらい難しいことを示していたことを裏付けている。
論文 参考訳(メタデータ) (2020-03-11T05:42:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。