論文の概要: Regulatory gray areas of LLM Terms
- arxiv url: http://arxiv.org/abs/2601.08415v1
- Date: Tue, 13 Jan 2026 10:34:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.153866
- Title: Regulatory gray areas of LLM Terms
- Title(参考訳): LLM用語の規則的灰色の領域
- Authors: Brittany I. Davidson, Kate Muir, Florian A. D. Burnat, Adam N. Joinson,
- Abstract要約: 大規模言語モデル(LLM)は学術研究パイプラインに統合されつつある。
本稿では,5大LCMプロバイダのサービス条件の比較分析を行う。
- 参考スコア(独自算出の注目度): 2.164086526612421
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly integrated into academic research pipelines; however, the Terms of Service governing their use remain under-examined. We present a comparative analysis of the Terms of Service of five major LLM providers (Anthropic, DeepSeek, Google, OpenAI, and xAI) collected in November 2025. Our analysis reveals substantial variation in the stringency and specificity of usage restrictions for general users and researchers. We identify specific complexities for researchers in security research, computational social sciences, and psychological studies. We identify `regulatory gray areas' where Terms of Service create uncertainty for legitimate use. We contribute a publicly available resource comparing terms across platforms (OSF) and discuss implications for general users and researchers navigating this evolving landscape.
- Abstract(参考訳): 大規模言語モデル (LLMs) は学術研究パイプラインにますます統合されているが、サービス規約は未検討のままである。
2025年11月に収集した5つのLLMプロバイダ(Anthropic、DeepSeek、Google、OpenAI、xAI)のサービス条件の比較分析を行った。
本分析により,一般ユーザや研究者に対する使用制限の厳密さと特異性に大きな変化があることが判明した。
セキュリティ研究、計算社会科学、心理学研究における研究者の特異な複雑さを同定する。
サービス規約が合法的な使用のための不確実性を生み出す「規制グレー領域」を特定します。
プラットフォーム間の比較用語(OSF)を公開し、この発展途上の展望をナビゲートする一般ユーザや研究者への影響について論じる。
関連論文リスト
- Domain Specific Benchmarks for Evaluating Multimodal Large Language Models [3.1546387965618337]
大きな言語モデル(LLM)は、高度な推論と問題解決能力のために、規律を越えてデプロイされることが増えている。
本稿では,LLMを広く活用する領域や応用領域を網羅した,7つの重要な分野の分類について紹介する。
我々はこれらのベンチマークをドメイン単位でコンパイルし、分類し、研究者のためのアクセス可能なリソースを作成します。
論文 参考訳(メタデータ) (2025-06-15T20:42:45Z) - Disambiguation in Conversational Question Answering in the Era of LLMs and Agents: A Survey [54.90240495777929]
自然言語処理(NLP)におけるあいまいさは依然として根本的な課題である
LLM(Large Language Models)の出現により、あいまいさに対処することがさらに重要になった。
本稿では,言語駆動システムにおけるあいまいさの定義,形態,含意について考察する。
論文 参考訳(メタデータ) (2025-05-18T20:53:41Z) - A Survey on Large Language Model based Autonomous Agents [105.2509166861984]
大規模言語モデル(LLM)は、人間レベルの知性を達成する上で、顕著な可能性を示している。
本稿では,LLMに基づく自律エージェントの分野を総合的な観点から体系的に検討する。
本稿では、社会科学、自然科学、工学の分野におけるLLMベースの自律エージェントの多様な応用について概観する。
論文 参考訳(メタデータ) (2023-08-22T13:30:37Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - Worldwide AI Ethics: a review of 200 guidelines and recommendations for
AI governance [0.0]
本稿では、公共機関、学術機関、民間企業、市民社会団体が公表した200のガバナンス政策とAI利用に関する倫理ガイドラインのメタ分析を行う。
オープンソースデータベースとツールとしてリリースされているデータセットのポリシとガイドラインで一般的な少なくとも17の共鳴原理を特定します。
本研究は, 今後の規制に組み込むべき合意の領域を提示し, 分析結果の批判的分析と組み合わせたグローバルスケール分析研究の実施の限界を提示する。
論文 参考訳(メタデータ) (2022-06-23T18:03:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。