論文の概要: Clio: Privacy-Preserving Insights into Real-World AI Use
- arxiv url: http://arxiv.org/abs/2412.13678v1
- Date: Wed, 18 Dec 2024 10:05:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:50:09.274764
- Title: Clio: Privacy-Preserving Insights into Real-World AI Use
- Title(参考訳): Clio: 現実のAI利用におけるプライバシ保護の視点
- Authors: Alex Tamkin, Miles McCain, Kunal Handa, Esin Durmus, Liane Lovitt, Ankur Rathi, Saffron Huang, Alfred Mountfield, Jerry Hong, Stuart Ritchie, Michael Stern, Brian Clarke, Landon Goldberg, Theodore R. Sumers, Jared Mueller, William McEachen, Wes Mitchell, Shan Carter, Jack Clark, Jared Kaplan, Deep Ganguli,
- Abstract要約: Clioは、AIアシスタント自身を使用して、数百万の会話で集約された使用パターンを分析し、サーフェスするプライバシー保護プラットフォームです。
まず、100万のClaude.ai FreeとProの会話から、モデルがどのように現実世界で使われているかについての洞察を共有します。
第2に、システムを悪用しようとする協調的な試みを特定することで、システムの安全性を高めるためにClioを使用します。
- 参考スコア(独自算出の注目度): 17.804155873262122
- License:
- Abstract: How are AI assistants being used in the real world? While model providers in theory have a window into this impact via their users' data, both privacy concerns and practical challenges have made analyzing this data difficult. To address these issues, we present Clio (Claude insights and observations), a privacy-preserving platform that uses AI assistants themselves to analyze and surface aggregated usage patterns across millions of conversations, without the need for human reviewers to read raw conversations. We validate this can be done with a high degree of accuracy and privacy by conducting extensive evaluations. We demonstrate Clio's usefulness in two broad ways. First, we share insights about how models are being used in the real world from one million Claude.ai Free and Pro conversations, ranging from providing advice on hairstyles to providing guidance on Git operations and concepts. We also identify the most common high-level use cases on Claude.ai (coding, writing, and research tasks) as well as patterns that differ across languages (e.g., conversations in Japanese discuss elder care and aging populations at higher-than-typical rates). Second, we use Clio to make our systems safer by identifying coordinated attempts to abuse our systems, monitoring for unknown unknowns during critical periods like launches of new capabilities or major world events, and improving our existing monitoring systems. We also discuss the limitations of our approach, as well as risks and ethical concerns. By enabling analysis of real-world AI usage, Clio provides a scalable platform for empirically grounded AI safety and governance.
- Abstract(参考訳): AIアシスタントは現実世界でどのように使われているか?
理論的には、モデルプロバイダはユーザーのデータを通じてこの影響に目を向けるが、プライバシの懸念と実践上の課題の両方が、このデータを解析することを困難にしている。
これらの問題に対処するために、Clio(Claudeの洞察と観察)というプライバシー保護プラットフォームを紹介します。これは、AIアシスタント自身を使用して、人間のレビュアーが生の会話を読むことなく、数百万の会話にまたがる集約された使用パターンを分析し、サーフェスします。
広範囲な評価を行うことで、高い精度とプライバシで実現可能であることを検証する。
我々はClioの有用性を2つの広い方法で示す。
まず、100万のClaude.ai FreeとProの会話から、ヘアスタイルに関するアドバイスから、Git操作とコンセプトに関するガイダンスまで、モデルが現実世界でどのように使用されているかについての洞察を共有します。
また,Claude.ai(コーディング,ライティング,研究タスク)における最も一般的な高レベルなユースケースや,言語によって異なるパターン(例えば,日本語での会話では,高齢者と高齢化人口を従来よりも高い水準で議論する)を同定した。
第2に、私たちはClioを使用して、システムの悪用に対する協調的な試みを特定し、新機能のローンチや主要世界のイベントといった重要な期間に未知のイベントを監視し、既存の監視システムを改善することで、システムの安全性を高めます。
また、我々のアプローチの限界や、リスクや倫理的懸念についても議論する。
実世界のAI利用の分析を可能にすることで、Clioは、経験的に基礎付けられたAIの安全性とガバナンスのためのスケーラブルなプラットフォームを提供する。
関連論文リスト
- Fundamental Risks in the Current Deployment of General-Purpose AI Models: What Have We (Not) Learnt From Cybersecurity? [60.629883024152576]
大規模言語モデル(LLM)は、幅広いユースケースで急速にデプロイされている。
OpenAIs Alteraは、自律性の向上、データアクセス、実行機能の一例に過ぎない。
これらの方法には、さまざまなサイバーセキュリティ上の課題が伴う。
論文 参考訳(メタデータ) (2024-12-19T14:44:41Z) - Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Challenges and Remedies to Privacy and Security in AIGC: Exploring the
Potential of Privacy Computing, Blockchain, and Beyond [17.904983070032884]
本稿では,AIGCの概念,分類,基礎技術について概観する。
複数の観点からAIGCが直面するプライバシーとセキュリティの課題について論じる。
論文 参考訳(メタデータ) (2023-06-01T07:49:22Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Advances and Challenges in Conversational Recommender Systems: A Survey [133.93908165922804]
現在の会話レコメンダーシステム(CRS)で使用されるテクニックの体系的なレビューを提供します。
CRS開発の主な課題を5つの方向にまとめます。
これらの研究の方向性は、情報検索(IR)、自然言語処理(NLP)、人間とコンピュータの相互作用(HCI)などの複数の研究分野を含みます。
論文 参考訳(メタデータ) (2021-01-23T08:53:15Z) - Trustworthy AI in the Age of Pervasive Computing and Big Data [22.92621391190282]
我々は倫理的観点から信頼に値するAIシステムの要件を定式化する。
研究状況と残りの課題について議論した後、スマートシティにおける具体的なユースケースがこれらの方法のメリットを如何に示すかを示す。
論文 参考訳(メタデータ) (2020-01-30T08:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。