論文の概要: Gen-AI for User Safety: A Survey
- arxiv url: http://arxiv.org/abs/2411.06606v1
- Date: Sun, 10 Nov 2024 21:49:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:10:33.919466
- Title: Gen-AI for User Safety: A Survey
- Title(参考訳): Gen-AI for User Safety: A Survey
- Authors: Akshar Prabhu Desai, Tejasvi Ravi, Mohammad Luqman, Nithya Kota, Pranjul Yadav,
- Abstract要約: 本書は,Gen-AI技術を用いたユーザ安全性に関するさまざまな作業の概要を包括的に紹介する。
具体的には、まず、Gen-AI技術が適用されたさまざまなドメイン(フィッシング、マルウェア、コンテンツモデレーション、偽造、物理的安全性など)を提供する。
次に、ユーザ安全の侵害を検出するために、さまざまなデータモダリティとともにGen-AI技術がどのように使用できるかを示す。
- 参考スコア(独自算出の注目度): 0.10485739694839666
- License:
- Abstract: Machine Learning and data mining techniques (i.e. supervised and unsupervised techniques) are used across domains to detect user safety violations. Examples include classifiers used to detect whether an email is spam or a web-page is requesting bank login information. However, existing ML/DM classifiers are limited in their ability to understand natural languages w.r.t the context and nuances. The aforementioned challenges are overcome with the arrival of Gen-AI techniques, along with their inherent ability w.r.t translation between languages, fine-tuning between various tasks and domains. In this manuscript, we provide a comprehensive overview of the various work done while using Gen-AI techniques w.r.t user safety. In particular, we first provide the various domains (e.g. phishing, malware, content moderation, counterfeit, physical safety) across which Gen-AI techniques have been applied. Next, we provide how Gen-AI techniques can be used in conjunction with various data modalities i.e. text, images, videos, audio, executable binaries to detect violations of user-safety. Further, also provide an overview of how Gen-AI techniques can be used in an adversarial setting. We believe that this work represents the first summarization of Gen-AI techniques for user-safety.
- Abstract(参考訳): 機械学習とデータマイニング技術(すなわち、教師なしおよび教師なしのテクニック)は、ユーザ安全違反を検出するために、ドメイン全体で使用される。
例えば、電子メールがスパムであるか、それともウェブページが銀行のログイン情報を要求しているかを検出するのに使われる分類器がある。
しかし、既存のML/DM分類器は、文脈やニュアンスで自然言語を理解する能力に制限がある。
上記の課題は、Gen-AI技術が登場し、言語間のWr.t翻訳能力、さまざまなタスクとドメイン間の微調整などとともに克服されている。
本稿では,Gen-AI技術を用いて利用者の安全を図りながら実施した各種作業の概要を概観する。
具体的には、まず、Gen-AI技術が適用されたさまざまなドメイン(フィッシング、マルウェア、コンテンツモデレーション、偽造、物理的安全性など)を提供する。
次に、テキスト、画像、ビデオ、オーディオ、実行可能バイナリなど、さまざまなデータモダリティと連携して、Gen-AI技術をどのように使用できるかを示し、ユーザ安全の侵害を検出する。
さらに、対戦環境においてGen-AI技術がどのように使われるかについても概説する。
我々は,この研究がユーザ安全のためのGen-AI技術の最初の要約であると考えている。
関連論文リスト
- More Questions than Answers? Lessons from Integrating Explainable AI into a Cyber-AI Tool [1.5711133309434766]
ソースコード分類におけるXAIの使用に関する予備的事例研究について述べる。
我々は、AIの専門知識がほとんどない人々によって解釈されると、最先端の正当性説明技法の出力が翻訳で失われることを発見した。
実用的で効果的なXAIにおける非適応的なギャップを概説し、次に、LLM(Large Language Models)のような新興技術が、これらの既存の障害を緩和する方法について触れます。
論文 参考訳(メタデータ) (2024-08-08T20:09:31Z) - Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - XAI for Cybersecurity: State of the Art, Challenges, Open Issues and
Future Directions [16.633632244131775]
AIモデルは、開発者が特定の決定の背後にある理由の説明や追跡ができないブラックボックスとして現れることが多い。
説明可能なAI(XAI)は、情報を抽出し、結果を視覚化するのに役立つ、急速に成長する研究分野である。
本報告では,サイバーセキュリティと攻撃形態について概説する。
次に、従来のAI技術の使用とその関連する課題について議論し、様々なアプリケーションでXAIを使用するための扉を開く。
論文 参考訳(メタデータ) (2022-06-03T02:15:30Z) - GenNI: Human-AI Collaboration for Data-Backed Text Generation [102.08127062293111]
Table2Textシステムは、機械学習を利用した構造化データに基づいてテキスト出力を生成する。
GenNI (Generation Negotiation Interface) は、対話型ビジュアルシステムである。
論文 参考訳(メタデータ) (2021-10-19T18:07:07Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - A survey on natural language processing (nlp) and applications in
insurance [4.040320146147257]
本稿では,NLP(Natural Language Processing)が保険を提供する機会を説明する。
現在使われている様々な方法の詳細は、その物語にさかのぼる。
また,オープンソースライブラリとpythonコードを用いた特定のメソッドの実装についても解説する。
論文 参考訳(メタデータ) (2020-10-01T14:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。