論文の概要: Large Language Models are Few-shot Publication Scoopers
- arxiv url: http://arxiv.org/abs/2304.00521v1
- Date: Sun, 2 Apr 2023 12:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 17:29:30.474537
- Title: Large Language Models are Few-shot Publication Scoopers
- Title(参考訳): 大型言語モデルは、わずかな出版スクープである
- Authors: Samuel Albanie, Liliane Momeni, Jo\~ao F. Henriques
- Abstract要約: pip-to-the-postアルゴリズムは、実質的な資本とキャリアリスクを発生させることなく、アデュレイションウィキペディアのページを保証します。
そこで本研究では,デザートビュッフェの調味料研究者の説得力に則って,グラウンドブレーキングの発見をスクープするアルゴリズムの非並列的可能性を実証した。
- 参考スコア(独自算出の注目度): 26.387386582932034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driven by recent advances AI, we passengers are entering a golden age of
scientific discovery. But golden for whom? Confronting our insecurity that
others may beat us to the most acclaimed breakthroughs of the era, we propose a
novel solution to the long-standing personal credit assignment problem to
ensure that it is golden for us. At the heart of our approach is a
pip-to-the-post algorithm that assures adulatory Wikipedia pages without
incurring the substantial capital and career risks of pursuing high impact
science with conventional research methodologies. By leveraging the meta trend
of leveraging large language models for everything, we demonstrate the
unparalleled potential of our algorithm to scoop groundbreaking findings with
the insouciance of a seasoned researcher at a dessert buffet.
- Abstract(参考訳): 最近のaiによって、乗客は科学的発見の黄金時代に入りつつある。
しかし、誰が金になるのか?
この時代の最も賞賛されたブレークスルーに他者が打ち勝つかもしれないという不安を乗り越えて、私たちは、私たちにとって黄金であることを保証するために、長年の個人クレジット割り当て問題に対する新しい解決策を提案します。
我々のアプローチの核心は、従来の研究手法で高インパクト科学を追求する実質的な資本とキャリアリスクを負うことなく、wikipediaページを保証できるpip-to-the-postアルゴリズムです。
大規模言語モデルをあらゆるものに活用するメタトレンドを活用することで,デザートビュッフェで経験豊富な研究者の無念さに基いて,アルゴリズムが画期的な発見をスクープする可能性を実証する。
関連論文リスト
- Science Out of Its Ivory Tower: Improving Accessibility with Reinforcement Learning [15.03718014789799]
言語モデルを微調整して、学術的な抽象語をより理解しやすいバージョンに書き換える強化学習フレームワークを導入する。
我々の最良のモデルは、学者抽象学の可読性レベルを、およそ6つの米国学級レベルに調整する。
我々は,学術研究と一般大衆のギャップを埋めるための一歩として,この研究を構想する。
論文 参考訳(メタデータ) (2024-10-22T15:14:54Z) - 'Quis custodiet ipsos custodes?' Who will watch the watchmen? On Detecting AI-generated peer-reviews [20.030884734361358]
AIが生成したテキストが、ピアレビューを含む科学出版を損なうのではないかという懸念が高まっている。
本稿では,AIが頻繁にトークンを繰り返すことを示唆するTF(Term Frequency)モデルと,ChatGPTが再プロンプト時に同様の出力を生成するという考え方に基づくRR(Review Regeneration)モデルを紹介する。
以上の結果から,提案手法は,他のAIテキスト検出方法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-13T08:06:08Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、大規模言語モデルによる研究アイデア作成エージェントである。
科学文献に基づいて繰り返し精製しながら、問題、方法、実験設計を生成する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - JAMDEC: Unsupervised Authorship Obfuscation using Constrained Decoding
over Small Language Models [53.83273575102087]
著者の難読化に対する教師なし推論時間アプローチを提案する。
本稿では,著者難読化のためのユーザ制御推論時間アルゴリズムであるJAMDECを紹介する。
提案手法は,GPT2-XL などの小型言語モデルに基づいて,オリジナルコンテンツをプロプライエタリな LLM の API に公開するのを防ぐ。
論文 参考訳(メタデータ) (2024-02-13T19:54:29Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - Exploiting Large Language Models (LLMs) through Deception Techniques and Persuasion Principles [2.134057414078079]
大きな言語モデル(LLM)は広く使われるようになり、セキュリティと堅牢性を保証することが重要である。
本稿では,このような大規模言語モデルによる知覚的相互作用に対する活用に焦点を当てた新しい研究を提案する。
以上の結果から,これらの大規模言語モデルが詐欺や社会工学的攻撃の影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2023-11-24T23:57:44Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - I2D2: Inductive Knowledge Distillation with NeuroLogic and
Self-Imitation [89.38161262164586]
本稿では,ジェネリック生成の課題に着目し,コモンセンス知識の生成モデルについて検討する。
我々は,西欧の記号的知識蒸留を緩やかに追従する新しいコモンセンス蒸留フレームワークであるI2D2を紹介する。
我々の研究はジェネリックの新たなコーパス、Gen-A-tomicに繋がる。
論文 参考訳(メタデータ) (2022-12-19T04:47:49Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。