ChatGPT será una amenazan para la humanidad

Redacción

Con el tiempo, tecnologías como ChatGPT se adaptarán a varios procesos productivos, gracias a su apertura a plugins en entornos de terceros que alimentarán su potencia para la gestión de datos y creación de contenidos. Esto, como toda innovación en el mundo tech, tiene ventajas como riesgos. Un reciente reporte de la Agencia de la Unión Europea para la Cooperación Policial (Europol), echa luces sobre un latente peligro en la aplicación de esta IA generativa: el phishing.

En el documento “ChatGPT: el impacto de los modelos de lenguaje amplio en la aplicación de la ley’, la autoridad menciona que existe un riesgo de vulnerabilidad con el uso de un sistema que, accediendo a una enorme base de datos a pedido de un usuario, pueda crear soluciones delictivas más depuradas para realizar estafas.

El potencial de esta herramienta para la delincuencia radica en su capacidad de generar contenido a solicitud de cada usuario, creando contenido multimedia y texto que pueda convencer a personas en redes sociales o servicios de mensajería. La primera virtud es la posibilidad de que los delincuentes mejoren la ortografía, un detalle no menor para identificar condiciones falsas en estafas mediante redes y apps.

Fake News personalizadas: el riesgo de ChatGPT

El otro riesgo evidente en la masificación de ChatGPT es la capacidad de esta nueva tecnología para la creación de imágenes, audios y videos relacionadas con ofertas y promociones respaldadas por artistas o, en el peor de los casos, el uso del deepfake para chantajes.

Por lo general, las estafas que involucran imágenes de personalidades con alto impacto en redes sociales suelen tener un número mayor de víctimas. Desde mensajes compartidos usando perfiles falsos y variando una o dos letras el nombre del perfil oficial, hasta clonación de páginas web de bancos y servicios de streaming, los delincuentes aprovechan estas oportunidades para extraer tarjetas de crédito, contraseñas e información confidencial de las víctimas.

Por último, la Europol advierte que OpenAI, la empresa desarrolladora de GPT-4, no ha tomado las medidas necesarias para evitar el uso de su poderosa herramienta en actividades delictivas. Para esto, el Laboratorio de innovación de la entidad europea para capacitar a distintas fuerzas del orden sobre las nuevas modalidades de uso de GPT en técnicas avanzadas usando IA generativa.

Las + leídas