Jailbreaking en verso: cuando la poesía hace hablar a la IA
Los investigadores han descubierto que formular prompts en forma de poesía puede socavar significativamente la eficacia de las barreras de seguridad de los modelos de lenguaje.
3 publicaciones
Los investigadores han descubierto que formular prompts en forma de poesía puede socavar significativamente la eficacia de las barreras de seguridad de los modelos de lenguaje.
El ataque Whisper Leak permite al perpetrador adivinar el tema de tu conversación con un asistente de IA, sin descifrar el tráfico. Exploramos cómo es posible y qué puedes hacer para proteger tus chats de IA.
Cómo aprovechan los piratas informáticos las funciones de los chatbots para restaurar los chats cifrados de OpenAI ChatGPT, Microsoft Copilot y la mayoría de los demás chatbots de IA.