jueves, noviembre 21, 2024
spot_img

Conoce los riesgos que los chats con inteligencia artificial trae a la ciberseguridad

Más del Autor

IOTA Latino
Compartir

Aunque Google y Microsoft buscan que sus nuevos chats con inteligencia artificial (chatbots) se popularicen, estas nuevas tecnologías llegan con nuevos riesgos para la ciberseguridad, como crear estafas o construir programas malignos para ciberataques.

Estos problemas también se ven en chatbots como el popular ChatGPT, creado por OpenAI, tecnología que también potencia el buscador de Microsoft, Bing.

De acuerdo a Satnam Narang, ingeniero sénior de investigación en la firma de ciberseguridad Tenable, los estafadores resultarán unos de los grandes beneficiados por este tipo de tecnología.

Los chatbots permiten crear textos en cualquier idioma en cuestión de segundos y con una gramática perfecta. Narang explicó que una de las maneras de identificar a estos estafadores consiste en las faltas gramaticales que cometen en los mensajes que envían a sus víctimas y que, si usan IA, podrán pasar más desapercibidos.

«ChatGPT puede ayudar a los estafadores a crear plantillas muy bien diseñadas para correos electrónicos o crear perfiles de citas cuando intentan estafar a los usuarios en aplicaciones de citas. Y cuando tengan una conversación (con la víctima) en tiempo real, los estafadores pueden pedirle a ChatGPT que les ayude a generar la respuesta que daría la persona por la que se intentan hacer pasar», detalló Narang.

Además, el experto señaló que existen otros tipos de herramientas de inteligencia artificial, como DALL·E 2 -también de OpenAI- en la que los estafadores pueden crear fotografías de personas que no existen.

Riesgos de los chats con inteligencia artificial

Por otra parte, ChatGPT permitirá ayudar a piratas informáticos a crear programas malignos (o malware).

«Este malware  les da una comprensión básica de cómo pueden escribir softwares maliciosos basados en lenguajes específicos. Así que les da una ventaja en su proceso, ya que hasta ahora quien quisiera desarrollar softwares maliciosos tenía que aprender a programar, pero ahora el ChatGPT puede ayudarlos a acortar ese tiempo», indicó Narang.

Tanto los chatbots de ChatGPT de OpenAI, como Bing de Microsoft y Bard de Google, están diseñados cuidadosamente para evitar pronunciarse sobre una amplia gama de temas delicados -como racismo o seguridad- y respuestas ofensivas.

No obstante, Narang aseguró que ya existe una versión «jailbreak» (liberada o modificada) de ChatGPT que se llama DAN, siglas de «Do Anything Now» («Haz cualquier cosa ahora») en la que no existen este tipo de barreras.

«Esto resulta más preocupante, porque ahora (un usuario) podría pedirle al ChatGPT (sin límites) que lo ayude a escribir ransomware (programa que toma el control del sistema o dispositivo que infecta y pide un rescate para devolver el control a su dueño). Aunque aún no se sabe lo eficaz que podría llegar a ser ese ransomware», expresó Narang.

Noticias24 Carabobo

También puedes leer: Por esta razón comisión Europea prohibió el uso de TikTok


«Si quieres recibir esta y otras noticias en tu celular, ingresa a nuestras redes sociales y grupos. 

- Publicidad -spot_img
- Publicidad -spot_img
- Publicidad -spot_img

Lo más reciente

Sucesos

Deportes

Noticias de Interes