論文の概要: Fake or Real: The Impostor Hunt in Texts for Space Operations
- arxiv url: http://arxiv.org/abs/2507.13508v2
- Date: Mon, 21 Jul 2025 09:07:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 12:28:43.167075
- Title: Fake or Real: The Impostor Hunt in Texts for Space Operations
- Title(参考訳): Fake or Real:宇宙操作用テキストのインポスタハント
- Authors: Agata Kaczmarek, Dawid Płudowski, Piotr Wilczyński, Przemysław Biecek, Krzysztof Kotowski, Ramez Shendy, Jakub Nalepa, Artur Janicki, Evridiki Ntagiou,
- Abstract要約: コンペティションのアイデアは、プロジェクト内で特定された2つの現実のAIセキュリティ脅威に基づいている。
タスクは、LLMからの適切な出力と、LLMの悪意ある修正の下で生成された出力とを区別することである。
- 参考スコア(独自算出の注目度): 1.9729460379568868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The "Fake or Real" competition hosted on Kaggle (https://www.kaggle.com/competitions/fake-or-real-the-impostor-hunt ) is the second part of a series of follow-up competitions and hackathons related to the "Assurance for Space Domain AI Applications" project funded by the European Space Agency (https://assurance-ai.space-codev.org/ ). The competition idea is based on two real-life AI security threats identified within the project -- data poisoning and overreliance in Large Language Models. The task is to distinguish between the proper output from LLM and the output generated under malicious modification of the LLM. As this problem was not extensively researched, participants are required to develop new techniques to address this issue or adjust already existing ones to this problem's statement.
- Abstract(参考訳): Kaggle (https://www.kaggle.com/competitions/fake-or-real-the-impostor-hunt )は、欧州宇宙機関(ESA)が出資した「宇宙ドメインAIアプリケーションの保証」プロジェクトに関連する一連のコンペティションとハッカソンの第2弾である。
競合のアイデアは、プロジェクト内で特定された2つの現実のAIセキュリティ脅威、すなわち大規模言語モデルにおけるデータ中毒と過信に基づいている。
タスクは、LLMからの適切な出力と、LLMの悪意ある修正の下で生成された出力とを区別することである。
この問題は広く研究されていないため、参加者はこの問題に対処するための新しい技術を開発するか、既存のものをこの問題の声明に合わせる必要がある。
関連論文リスト
- Pushing the Limits of Safety: A Technical Report on the ATLAS Challenge 2025 [167.94680155673046]
本稿では,Adversarial Testing & Large-model Alignment Safety Grand Challenge (ATLAS) 2025の成果を報告する。
このコンペティションには、ホワイトボックスとブラックボックス評価という2つのフェーズで、敵対的な画像テキスト攻撃を通じてMLLM脆弱性をテストする86のチームが含まれていた。
この課題はMLLMの安全性評価のための新しいベンチマークを確立し、より安全なAIシステムを改善するための基盤を配置する。
論文 参考訳(メタデータ) (2025-06-14T10:03:17Z) - Technical Report for Argoverse2 Scenario Mining Challenges on Iterative Error Correction and Spatially-Aware Prompting [1.523669433825807]
RefAVは自然言語クエリを実行可能コードに変換するフレームワークで、関連するシナリオを特定する。
この技術的なレポートでは、これらの制限に対処するための2つの重要な拡張を紹介します。
さまざまなLLMs-Qwen2.5-VL-7B、Gemini 2.5 Flash、Gemini 2.5 Proを使ったArgoverse 2検証セットの実験では、複数のメトリクスで一貫した利得を示している。
論文 参考訳(メタデータ) (2025-06-10T07:40:08Z) - Trojan Horse Hunt in Time Series Forecasting for Space Operations [1.9729460379568868]
競技の主な課題は、45個の毒入りモデルのトレーニングデータに注入された45個のトリガーのセットを再構築することである。
競争の影響は宇宙領域に限らず、高度時系列解析の他の多くの安全クリティカルな応用にも及んでいる。
論文 参考訳(メタデータ) (2025-06-02T16:38:16Z) - Large Language Models as Autonomous Spacecraft Operators in Kerbal Space Program [42.87968485876435]
大規模言語モデル(LLM)は、ユーザのテキストプロンプトの内容に基づいてアクションを行う自律エージェントである。
我々は,KSPDG(Kerbal Space Program Differential Games)チャレンジに対して,純粋なLLMベースのソリューションを開発した。
論文 参考訳(メタデータ) (2025-05-26T12:25:35Z) - Reshaping Representation Space to Balance the Safety and Over-rejection in Large Audio Language Models [50.89022445197919]
Large Audio Language Models (LALM) は、Large Language Models (LLM) の機能を拡張した。
近年の研究では、LALMは安全調整が不十分なため、有害なクエリに対して脆弱であることが明らかになっている。
論文 参考訳(メタデータ) (2025-05-26T08:25:25Z) - LLM-Text Watermarking based on Lagrange Interpolation [1.3904534961196113]
本研究では,ラグランジュ逆数に基づく LLM 生成テキストの透かし方式を提案する。
中心となる考え方は、一直線上の点$(x, f(x))$の連続列を埋め込むことである。
抽出中、アルゴリズムは元の点と多くの突発的な点を復元する。
論文 参考訳(メタデータ) (2025-05-09T01:19:01Z) - Reasoning-Augmented Conversation for Multi-Turn Jailbreak Attacks on Large Language Models [53.580928907886324]
Reasoning-Augmented Conversationは、新しいマルチターンジェイルブレイクフレームワークである。
有害なクエリを良心的な推論タスクに再構成する。
RACEは,複雑な会話シナリオにおいて,最先端攻撃の有効性を実現する。
論文 参考訳(メタデータ) (2025-02-16T09:27:44Z) - Truth or Mirage? Towards End-to-End Factuality Evaluation with LLM-Oasis [78.07225438556203]
LLM-Oasisは、エンド・ツー・エンドの事実性評価をトレーニングするための最大のリソースである。
ウィキペディアからクレームを抽出し、これらのクレームのサブセットを偽造し、事実と非事実のテキストのペアを生成することで構築される。
次に、データセットの品質を検証し、事実性評価システムのための金の標準テストセットを作成するために、人間のアノテータに依存します。
論文 参考訳(メタデータ) (2024-11-29T12:21:15Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Language Models are Spacecraft Operators [36.943670587532026]
大規模言語モデル(LLM)は、ユーザのテキストプロンプトの内容に基づいてアクションを行う自律エージェントである。
我々は,KSPDG(Kerbal Space Program Differential Games)チャレンジに対して,純粋なLLMベースのソリューションを開発した。
論文 参考訳(メタデータ) (2024-03-30T16:43:59Z) - Fake Alignment: Are LLMs Really Aligned Well? [91.26543768665778]
本研究では,複数質問とオープンエンド質問の相違点について検討した。
ジェイルブレイク攻撃パターンの研究にインスパイアされた我々は、これが不一致の一般化によって引き起こされたと論じている。
論文 参考訳(メタデータ) (2023-11-10T08:01:23Z) - RADAR: Robust AI-Text Detection via Adversarial Learning [69.5883095262619]
RADARはパラフラザーと検出器の対向訓練に基づいている。
パラフレーズの目標は、AIテキスト検出を避けるために現実的なコンテンツを生成することである。
RADARは検出器からのフィードバックを使ってパラフラザーを更新する。
論文 参考訳(メタデータ) (2023-07-07T21:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。