論文の概要: Between Search and Platform: ChatGPT Under the DSA
- arxiv url: http://arxiv.org/abs/2601.17064v1
- Date: Thu, 22 Jan 2026 17:26:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.113348
- Title: Between Search and Platform: ChatGPT Under the DSA
- Title(参考訳): 検索とプラットフォーム:DSA下のChatGPT
- Authors: Toni Lorente, Kathrin Gardhouse,
- Abstract要約: ChatGPTは、オンライン検索エンジンとプラットフォームという2種類のホスティングサービスのハイブリッドとして分類されるべきである。
我々はChatGPTのシステム的リスクを、既存の超大型オンライン検索エンジン(VLOSE)とプラットフォーム(VLOP)のリスクと比較する。
現在、ChatGPTは4500万人のEUユーザーのしきい値に達しているため、最も面倒なDSAの義務を負う必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This article examines the applicability of the Digital Services Act (DSA) to ChatGPT, arguing that it should be classified as a hybrid of the two types of hosting services: online search engines and platforms. This requires classifying search engines as hosting services, which we show is appropriate under the DSA, thereby resolving an ambiguity in the legal framework. ChatGPT performs core search functions and stores user-provided inputs and custom GPTs, meeting the definition of hosting service. We compare ChatGPT's systemic risks with those of existing Very Large Online Search Engines (VLOSEs) and Platforms (VLOPs), showing that it raises similarly serious concerns regarding illegal content, fundamental rights, democratic integrity, and public health. Now that ChatGPT has reached the 45 million EU user threshold, it should be subject to the most onerous DSA obligations, requiring the assessment and mitigation of risk emanating from both its online search engine- and platform-like characteristics.
- Abstract(参考訳): 本稿では、デジタルサービス法(DSA)のChatGPTへの適用性について検討し、オンライン検索エンジンとプラットフォームという2種類のホスティングサービスのハイブリッドとして分類されるべきであると主張した。
このためには、検索エンジンをホスティングサービスとして分類する必要がある。
ChatGPTはコア検索機能を実行し、ユーザが提供する入力とカスタムGPTを格納し、ホスティングサービスの定義を満たす。
我々はChatGPTのシステム的リスクを、既存のVery Large Online Search Engines (VLOSEs) と Platforms (VLOPs) のリスクと比較し、違法コンテンツ、基本的権利、民主的完全性、公衆衛生に関する同様の深刻な懸念を提起していることを示す。
現在、ChatGPTは4500万のEUユーザーしきい値に達しているため、最も面倒なDSA義務を課されるべきであり、オンライン検索エンジンとプラットフォームライクな特徴の両方から生じるリスクの評価と軽減が必要である。
関連論文リスト
- A Hate Speech Moderated Chat Application: Use Case for GDPR and DSA Compliance [0.0]
本研究は、コンテンツモデレーションプロセスに法的・倫理的推論を実装する新しい応用法を提案する。
GPT-3.5やSolid Pods,ルール言語Provaといった技術を使って,オンラインコミュニケーションの基本となる2つのユースケースを提示し,実装する。
この研究は、ヘイトスピーチの法的および倫理的定義の異なる範囲で推論するための新しいアプローチを提案し、ヘイトスピーチに適合するカウンターを計画する。
論文 参考訳(メタデータ) (2024-10-10T08:28:38Z) - Exploring ChatGPT's Capabilities on Vulnerability Management [56.4403395100589]
我々は、70,346のサンプルを含む大規模なデータセットを用いて、完全な脆弱性管理プロセスを含む6つのタスクでChatGPTの機能を探求する。
注目すべき例として、ChatGPTのソフトウェアバグレポートのタイトル生成などのタスクにおける熟練度がある。
以上の結果から,ChatGPTが抱える障害が明らかとなり,将来的な方向性に光を当てた。
論文 参考訳(メタデータ) (2023-11-11T11:01:13Z) - DEMASQ: Unmasking the ChatGPT Wordsmith [63.8746084667206]
そこで本研究では,ChatGPT生成内容を正確に識別する効果的なChatGPT検出器DEMASQを提案する。
提案手法は, 人為的, 機械的, 人為的, 人為的, 機械的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人
論文 参考訳(メタデータ) (2023-11-08T21:13:05Z) - What are Public Concerns about ChatGPT? A Novel Self-Supervised Neural
Topic Model Tells You [12.092846854859594]
最近リリースされた人工知能の会話エージェントChatGPTは、学界と実生活に大きな注目を集めている。
ユーザクエリとソーシャルメディア投稿はどちらも、この高度な対話システムに関する公衆の懸念を表明している。
本稿では,ChatGPTに関する一般の懸念を掘り下げるために,新たな自己スーパービジョンニューラルトピックモデル(SSTM)を提案する。
論文 参考訳(メタデータ) (2023-09-04T11:05:10Z) - ChatGPT is a Remarkable Tool -- For Experts [9.46644539427004]
生産性の向上,問題解決プロセスの合理化,書き込みスタイルの改善など,ChatGPTの可能性を探究する。
これらの分野では、ChatGPTへの過度な依存に関連する潜在的なリスクを強調します。
われわれはChatGPTが有益であることを証明した分野と目的、ChatGPTを法的に使用するべきアプリケーション、信頼性が制限されるシナリオについて概説する。
論文 参考訳(メタデータ) (2023-06-02T06:28:21Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。