
Una alucinación de IA es una situación en la que una herramienta de inteligencia artificial ofrece un resultado que es inexacto, engañoso o incoherente, debido a que sus algoritmos encuentran patrones en datos que no existen o los interpretan incorrectamente.
A medida que las capacidades y la popularidad de la inteligencia artificial se han expandido en los últimos años, se han descubierto algunos de sus defectos y vulnerabilidades.
Una de las preguntas más importantes que tiene la gente es si la IA es precisa. En muchos casos, ha demostrado ser una herramienta increíblemente útil para verificar e investigar información, pero en algunos otros, los resultados que ha proporcionado han sido incorrectos o engañosos.
Dada la variedad de casos de uso a los que se está aplicando la IA en el mundo moderno, las consecuencias de estas inexactitudes pueden ser extremadamente graves. En este artículo, veremos por qué puede ocurrir una alucinación de IA, las ramificaciones desde el punto de vista tecnológico y social, y qué puede hacer para minimizar el riesgo de alucinaciones de IA en su propio uso.
Cómo ocurre una alucinación de IA?
Hay varias razones por las que ocurre una alucinación de IA y, en muchos casos, se reduce a una combinación de varias de ellas al mismo tiempo. Estos pueden incluir (y no se limitan necesariamente a):
- No tener suficientes datos de entrenamiento para guiar resultados completos y precisos del modelo de IA.
- Tener demasiados datos de entrenamiento, lo que lleva a que se confunda demasiado "ruido de datos" irrelevante con la información que es relevante e importante.
- Sesgos dentro de los datos que se reflejan en los resultados generados.
- El modelo de inteligencia artificial simplemente hace suposiciones y conclusiones incorrectas a partir de la información que se le ha proporcionado.
- Falta de contexto del mundo real dentro del modelo de IA, como las propiedades físicas de los objetos o información más amplia que sea relevante para los resultados que se generan.
Cómo se ve una alucinación con IA?
No existe un conjunto único de síntomas para las alucinaciones de IA porque depende de las fallas en el modelo y el proceso involucrado. Sin embargo, por lo general, una alucinación de IA puede manifestarse de una de estas cinco formas:
- Predicciones inexactas : los modelos de IA pueden terminar prediciendo que algo sucederá en el futuro, lo que tiene pocas posibilidades realistas de que ocurra, o probablemente ninguna posibilidad.
- Resúmenes con información faltante : a veces, los modelos de IA pueden perder el contexto vital o la información que necesitarían para crear resultados precisos y completos. Esto puede deberse a la falta de datos introducidos en el modelo o la incapacidad del modelo para buscar el contexto correcto en otras fuentes.
- Resúmenes con información inventada : al igual que en el punto anterior, algunos modelos de IA pueden acabar compensando la falta de información precisa inventando las cosas por completo. Esto a menudo puede suceder cuando los datos y el contexto en los que se basa el modelo son inexactos en primer lugar.
- Falsos positivos y negativos : la inteligencia artificial se usa a menudo para detectar posibles riesgos y amenazas, ya sean síntomas de enfermedad en un entorno de atención médica o casos de actividad fraudulenta en la banca y las finanzas. Los modelos de inteligencia artificial a veces pueden identificar una amenaza que no existe, o en el otro extremo de la escala, no identifican una amenaza que sí existe.
- Resultados incoherentes : si ha visto imágenes generadas por IA de personas con el número incorrecto de brazos y piernas o de coches con demasiadas ruedas, sabrá que la IA aún puede generar resultados que no tienen ningún sentido para los humanos.
Por qué es importante evitar las alucinaciones con IA?
Puede pensar que una alucinación de IA no es gran cosa y que simplemente ejecutar los datos a través del modelo nuevamente puede resolver el problema generando los resultados correctos.
Pero las cosas no son tan simples como eso, y cualquier alucinación de IA que se aplique a casos de uso práctico o se lance al dominio público puede tener algunas consecuencias muy graves para un gran número de personas:
Uso poco ético de IA
El uso de IA, en general, está en el punto de mira en este momento, y se espera cada vez más que las organizaciones que hacen uso de la tecnología utilicen la inteligencia artificial de una manera responsable y ética que no dañe a las personas ni las ponga en riesgo. Permitir que una alucinación de IA pase sin control, ya sea a sabiendas o sin saberlo, no cumpliría con esas expectativas éticas.
Confianza del público y del consumidor
Conectado con el punto anterior, muchas personas todavía están preocupadas por el uso de la IA, desde cómo se utilizan sus datos personales hasta si las crecientes capacidades de la IA pueden hacer que sus trabajos sean obsoletos. Los casos continuos de ejemplos de alucinaciones de inteligencia artificial en el dominio público pueden erosionar la confianza que se genera lentamente entre el público y llevar a un éxito limitado para los casos de uso de inteligencia artificial y las empresas a largo plazo.
Toma de decisiones mal informada
Las empresas y las personas deben poder tomar las mejores y más informadas decisiones posibles y se apoyan cada vez más en los datos, el análisis y los modelos de inteligencia artificial para eliminar las conjeturas y la incertidumbre de esas decisiones. Si son engañados por resultados inexactos de los modelos de inteligencia artificial, las decisiones incorrectas que tomen podrían tener resultados catastróficos, desde amenazar la rentabilidad de una empresa hasta diagnosticar incorrectamente a un paciente médico.
Riesgos legales y financieros de la desinformación de AI
Como demuestra hábilmente el caso judicial mencionado anteriormente, la información generada por AI inexacta puede causar un gran daño desde las perspectivas legales y financieras. Por ejemplo, el contenido creado mediante IA podría ser difamatorio para determinadas personas o empresas, podría infringir determinadas normas legales o, en algunos casos extremos, incluso sugerir o incitar a las personas a realizar actividades ilícitas.
Evitando el sesgo
Vivimos en un mundo donde las personas trabajan incansablemente para garantizar que todos sean tratados por igual y sin prejuicios hacia un tipo de persona sobre otra. Sin embargo, los datos de IA sesgados pueden llevar a que muchos de esos prejuicios se refuercen, a menudo sin querer. Un buen ejemplo de esto es el uso de la inteligencia artificial en la contratación y el reclutamiento: las alucinaciones de la inteligencia artificial pueden conducir a resultados sesgados que pueden afectar los esfuerzos de diversidad, igualdad e inclusión de la organización.
Cuáles son algunos ejemplos típicos de alucinaciones con IA?
Evitar las alucinaciones de IA está demostrando ser una tarea desafiante para todos en la industria. Y no solo sucede con operaciones más pequeñas que no tienen la experiencia y los recursos. Estos tres ejemplos de alucinaciones de inteligencia artificial demuestran que les están sucediendo a algunos de los actores tecnológicos más importantes del mundo:
Meta AI y el intento de asesinato de Donald Trump
Después del intento de asesinato contra el entonces candidato presidencial Donald Trump en julio de 2024, la inteligencia artificial de Meta El chatbot inicialmente se negó a responder cualquier pregunta sobre el incidente y luego afirmó que el incidente nunca sucedió. El problema llevó a Meta a ajustar los algoritmos de su herramienta de inteligencia artificial, pero provocó reclamos públicos de parcialidad y la censura de los puntos de vista conservadores.
La alucinación de ChatGPT y la falsa investigación jurídica
En 2023, un hombre en Colombia presentó una demanda por lesiones personales contra una aerolínea. Sus abogados utilizaron la herramienta líder de inteligencia artificial ChatGPT por primera vez para compilar su caso y preparar presentaciones legales. Sin embargo, a pesar de las garantías de ChatGPT de que los seis casos de precedentes legales que había encontrado eran reales, ninguno de ellos existía.
Se informó que Sydney de Microsoft se enamora de los usuarios
Sydney, el chatbot de Microsoft impulsado por inteligencia artificial, le dijo a un columnista de tecnología en el New York Times que lo amaba y que debería dejar a su esposa para estar con él. En el transcurso de dos horas, Kevin Roose dijo que Sydney compartió con él algunas "oscuras fantasías" sobre la difusión de información errónea de la IA y la conversión en humano.
Qué se puede hacer para minimizar el riesgo de alucinación con IA?
Dada la importancia de evitar el riesgo de una alucinación de inteligencia artificial, depende de las personas que usan los modelos de inteligencia artificial tomar todas las medidas prácticas que puedan para mitigar cualquiera de las circunstancias que pueden generar problemas. Recomendamos lo siguiente:
Asegúrese de que el modelo de inteligencia artificial tenga un propósito claro
Como el uso de la inteligencia artificial se ha expandido en los últimos años, un error común es que las organizaciones usen modelos de inteligencia artificial por el mero hecho de usarlos, sin tener en cuenta el resultado que tienen. buscando. Definir claramente el objetivo general de usar un modelo de IA puede garantizar que los resultados estén enfocados y evitar el riesgo de una alucinación de IA a través de un enfoque y datos que son demasiado generales.
Mejorar la calidad de los datos de entrenamiento
Cuanto mejor sea la calidad de los datos que entran en un modelo de IA, mejor será la calidad de los resultados que se obtendrán. Un buen modelo de inteligencia artificial se basará en datos que sean relevantes, libres de sesgos, bien estructurados y al que se haya filtrado cualquier `` ruido de datos '' extraño. Esto es esencial para asegurarse de que los resultados generados sean precisos, en el contexto correcto y no presenten más problemas.
Crear y usar plantillas de datos
Una buena forma de garantizar que los resultados de un modelo de IA estén estrechamente alineados con su propósito previsto es usar plantillas para los datos que se les introducen. Esto garantiza que cada vez que se utiliza un modelo de inteligencia artificial, se acostumbre a que los datos se proporcionen de la misma manera consistente y pueda entregar resultados consistentes y precisos en el contexto correcto.
Limitar la gama de respuestas y resultados
Poner más restricciones en un modelo de inteligencia artificial puede ayudar a reducir los resultados potenciales hacia los que se necesitan. Aquí es donde entran en juego las herramientas de filtrado y los umbrales, dando a los modelos de IA algunos límites muy necesarios para mantener su análisis y generación consistentemente en el camino correcto.
Probar y mejorar continuamente el modelo
Así como la mejora continua es vital para un buen desarrollo de software en un mundo en constante cambio, lo mismo ocurre con un buen modelo de IA. Por lo tanto, todos los modelos de IA deben probarse y perfeccionarse regularmente para que se puedan volver a calibrar a la evolución de los datos, los requisitos y la información contextual disponible.
Establezca controles y contrapesos humanos
La inteligencia artificial aún no es infalible hasta el punto de que se pueda confiar en que funcione de forma completamente autónoma, por lo que garantizar que exista al menos cierta supervisión humana es esencial. Hacer que una persona compruebe la salida de IA puede identificar cualquier alucinación de IA que haya tenido lugar y garantizar que la salida sea precisa y adecuada para los requisitos establecidos.
Refuerce su provisión de ciberseguridad
Si una alucinación de IA corre el riesgo de introducir vulnerabilidades de ciberseguridad, esta es una buena razón para garantizar que se haya implementado la mejor solución de ciberseguridad posible. Kaspersky Plus Internet Security incluye análisis antivirus en tiempo real de serie para que cualquier amenaza de seguridad introducida debido a las alucinaciones de IA se aborde y elimine antes de que pueda tener algún efecto adverso.
Artículos relacionados:
- Es seguro usar ChatGPT? Lo que necesita saber
- los chatbots están en todas partes, pero ¿plantean problemas de privacidad?
- Kaspersky pide una aplicación de inteligencia artificial responsable, que establezca principios para el desarrollo ético y el uso de la inteligencia artificial en la ciberseguridad
