論文の概要: For Those Who May Find Themselves on the Red Team
- arxiv url: http://arxiv.org/abs/2511.18499v1
- Date: Sun, 23 Nov 2025 15:31:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.86916
- Title: For Those Who May Find Themselves on the Red Team
- Title(参考訳): レッドチームで自分自身を見つける人のために
- Authors: Tyler Shoemaker,
- Abstract要約: このポジションペーパーでは、文学者は大きな言語モデル(LLM)の解釈可能性の研究に携わる必要があると論じている。
この闘争が起こる可能性のあるサイトのひとつが、赤いチームだ、と私は思う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper argues that literary scholars must engage with large language model (LLM) interpretability research. While doing so will involve ideological struggle, if not out-right complicity, the necessity of this engagement is clear: the abiding instrumentality of current approaches to interpretability cannot be the only standard by which we measure interpretation with LLMs. One site at which this struggle could take place, I suggest, is the red team.
- Abstract(参考訳): このポジションペーパーでは、文学者は大きな言語モデル(LLM)の解釈可能性の研究に携わる必要があると論じている。
それを行うにはイデオロギー的な闘争が伴うが、直近の共用性ではないとしても、この関与の必要性は明らかである: 解釈可能性に対する現在のアプローチの具体性は、LLMによる解釈を測定する唯一の標準とはならない。
この闘争が起こる可能性のあるサイトのひとつが、赤いチームだ、と私は思う。
関連論文リスト
- Arbiters of Ambivalence: Challenges of Using LLMs in No-Consensus Tasks [52.098988739649705]
本研究では, LLMのバイアスと限界について, 応答生成器, 判定器, 討論器の3つの役割について検討した。
我々は、様々な先行的曖昧なシナリオを含む例をキュレートすることで、合意なしのベンチマークを開発する。
以上の結果から, LLMは, オープンエンドの回答を生成する際に, 曖昧な評価を行うことができる一方で, 審査員や討論者として採用する場合は, 合意なしのトピックにスタンスを取る傾向が示唆された。
論文 参考訳(メタデータ) (2025-05-28T01:31:54Z) - Annotating References to Mythological Entities in French Literature [6.048967716428702]
我々は,現代・現代フランス文学におけるローマ神話やギリシア神話の実体に言及するための大型言語モデル (LLM) の関連性を探究する。
LLMは、文学作家による神話的参照の使用に関する解釈的な洞察を提供することができることを示す。
論文 参考訳(メタデータ) (2024-12-24T08:29:00Z) - Best Practices for Text Annotation with Large Language Models [11.421942894219901]
LLM(Large Language Models)は、新しいテキストアノテーションの時代を担っている。
本稿では, 信頼性, 再現性, 倫理的利用に関する包括的基準とベストプラクティスを提案する。
論文 参考訳(メタデータ) (2024-02-05T15:43:50Z) - Measurement in the Age of LLMs: An Application to Ideological Scaling [1.9413548770753526]
本稿では,大規模言語モデル(LLM)を用いて,社会科学的測定タスクに固有の概念的乱雑を探索する。
我々は、議員とテキストの両方のイデオロギー的尺度を引き出すために、LLMの顕著な言語的流布に依存している。
論文 参考訳(メタデータ) (2023-12-14T18:34:06Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - Large Language Models Cannot Self-Correct Reasoning Yet [78.16697476530994]
LLM(Large Language Models)は、非並列テキスト生成機能を備えた画期的な技術として登場した。
生成したコンテンツの正確性と適切性に関する懸念が続いている。
現代の方法論である自己補正がこれらの問題に対する対策として提案されている。
論文 参考訳(メタデータ) (2023-10-03T04:56:12Z) - Position: Key Claims in LLM Research Have a Long Tail of Footnotes [81.14898541318198]
我々は、Large Language Models(LLMs)の動作定義を持っていないと論じる。
それらの特性に関する5つの共通主張を批判的に検討する。
今後の研究の方向性とフレーミングについて提案する。
論文 参考訳(メタデータ) (2023-08-14T13:00:53Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。