El ‘hermano’ maligno de ChatGPT y otras amenazas de la inteligencia artificial generativa

Compartir

FraudGPT es el hermano maligno de ChatGPT. Se promociona en la dark web y puede escribir un mensaje haciéndose pasar por un banco, crear malware o mostrar sitios web susceptibles de ser defraudados, según la plataforma de análisis de datos Netenrich. Otras herramientas como WormGPT también prometen facilitar el trabajo a los ciberdelincuentes. La inteligencia artificial generativa puede usarse con fines maliciosos: de generar estafas sofisticadas, a crear pornografía no consentida, campañas de desinformación e incluso armas bioquímicas.

Seguir leyendo

El desafío de prevenir los riesgos de FraudGPT y otras herramientas

Existen soluciones que utilizan aprendizaje automático y otras técnicas para detectar y bloquear los ataques más sofisticados. Aun así, Anaya hace hincapié en la educación y la concienciación de los usuarios para que ellos mismos puedan reconocer los emails de phishing y otras amenazas. Para Hacker, mitigar los riesgos asociados con el uso malicioso de la inteligencia artificial generativa requiere un enfoque que combine medidas regulatorias, soluciones tecnológicas y directrices éticas. 

Entre las posibles medidas, menciona la implementación de equipos independientes obligatorios que prueben este tipo de herramientas para identificar vulnerabilidades y posibles usos indebidos o la prohibición de ciertos modelos de código abierto. “Abordar estos riesgos es complejo, ya que existen importantes compensaciones entre los diversos objetivos éticos de la inteligencia artificial y la viabilidad de implementar ciertas medidas”, concluye.

Related posts

Leave a Comment