10 junio,2023 11:24 am

Abuso y falta de fiabilidad: los chatbots de IA tienen limitaciones

 

Madrid, España, 10 de junio de 2023. Los chatbots de inteligencia artificial (IA) generan textos de una calidad asombrosa: cartas de presentación, resúmenes, ensayos, comparaciones, relatos con un determinado estilo de escritura o incluso códigos de programas en funcionamiento.

Pero los bots, abreviatura de la palabra robot, también editan, comprueban, analizan o traducen cualquier texto y código.

Todo ello puede resultar entretenido y útil, pero, al mismo tiempo, el uso de esta tecnología plantea “nuevos tipos de riesgos para la seguridad informática y aumenta el potencial de algunas amenazas conocidas”, concluye la Oficina Federal de Seguridad de la Información (BSI) de Alemania.

Según la entidad, detrás de cada chatbot de inteligencia artificial hay un modelo de lenguaje. Los grandes modelos lingüísticos de IA (Large Language Models, LLM) son programas informáticos capaces de procesar automáticamente el lenguaje natural en forma escrita.

Entre los modelos más conocidos están el GPT de OpenAI y el Palm de Google. Google utiliza Palm para su chatbot Bard. Y GPT se utiliza en ChatGPT o Bing Chat de Microsoft.

La BSI enumera las siguientes amenazas ya conocidas que los modelos lingüísticos de IA pueden reforzar aún más:

– La creación o mejora de malware.

– La creación de spam y correos electrónicos de phishing para manipular características humanas como la amabilidad, la confianza o el miedo (ingeniería social).

– Al hacerlo, los modelos lingüísticos pueden adaptar el estilo de escritura de los textos de los correos para que se parezcan al de una organización o persona determinada.

– Los errores ortográficos o gramaticales que solían ser habituales en los correos de spam y phishing, y que pueden ayudar a reconocer este tipo de mensajes, apenas se encuentran ahora en los textos generados automáticamente.

– Los ataques por correo electrónico no solo pueden incrementarse en número con relativamente poco esfuerzo con la ayuda de modelos lingüísticos de IA. Los mensajes también pueden hacerse aún más convincentes por medio de los modelos.

Estos son problemas y amenazas totalmente nuevos que plantean los modelos lingüísticos de IA y que fueron identificados por la BSI:

– Un riesgo importante es que los atacantes redirijan secretamente las entradas de los usuarios a un modelo de lenguaje para manipular el chat y aprovechar datos o información.

– En cualquier caso, siempre existe el riesgo de que los datos introducidos no permanezcan ocultos, sino que sean analizados por el operador del chatbot o transmitidos a terceros desconocidos.

– Es posible que los modelos lingüísticos se utilicen indebidamente para producir noticias falsas, propaganda o mensajes de odio con el fin de influir en la opinión pública.

– La capacidad de imitar estilos de escritura plantea aquí un peligro particular: podría difundirse información falsa con un estilo adaptado a determinadas personas u organizaciones.

– También son concebibles las evaluaciones generadas por máquinas, que pueden utilizarse para promocionar o incluso desacreditar servicios o productos.

Un problema básico de los chatbots es que los datos utilizados para entrenar el modelo lingüístico y su calidad influyen significativamente en la funcionalidad. Según la BSI, esto da lugar a los siguientes riesgos:

– Contenidos cuestionables, como la desinformación, la propaganda o el discurso de odio pueden fluir hacia el texto generado por la IA de forma lingüísticamente similar.

– Nunca se tiene la certeza de que el contenido generado por la IA esté actualizado o sea correcto. Esto se debe a que un modelo lingüístico solo puede obtener información de los textos que ya ha “visto”. Los modelos de IA no pueden hacer las clasificaciones que vayan más allá de esa información y que las personas del mundo real sí pueden, conocen y saben hacer. Por eso puede llegar incluso a inventar contenidos, la llamada alucinación.

Conclusión: los usuarios deben seguir siendo críticos. El texto, a menudo sin errores lingüísticos, puede dar la impresión de que se trata de una habilidad similar a la humana. Eso nos lleva a confiar demasiado en el contenido generado por la inteligencia artificial, aunque éste pueda ser inapropiado, incorrecto fácticamente o manipulado.

Texto: Portaltic