
Quantera.ai
基于人工智能的股票研究和洞察平台,自动化财务工作流程。
攻击提示工具旨在为人工智能安全和安全领域的研究人员和专业人士提供服务。该工具允许用户生成对抗性提示,以测试大型语言模型 (LLMs) 的鲁棒性,帮助识别漏洞并改善整体模型安全性。它仅用于学术和研究目的,支持安全人工智能技术的进步。请注意,此工具不用于恶意用途,所有活动应在受控和道德的环境中进行。
在“输入文本”字段中输入任何提示。点击“创建”以生成嵌入您输入文本的对抗性提示。再次点击“创建”以生成不同的提示。使用屏幕底部的复制按钮复制生成的提示。
对抗性提示生成用于 LLM 测试
#1 测试大型语言模型对抗性攻击的鲁棒性。