Implicaciones de ciberseguridad de ChatGPT

ChatGPT, de OpenAI, aprovecha el poder de la inteligencia artificial generativa, prometiendo transformar la forma de interactuar con los ordenadores y automatizar tareas. Una de las características más interesantes de ChatGPT es su capacidad para conversar como un ser humano. Generará una respuesta similar a la humana a cualquier consulta o instrucción. Puede redactar casi instantáneamente un ensayo, investigar, crear un post en las redes sociales o, incluso, depurar el código informático. La última versión de ChatGPT destaca, incluso en algunos de los exámenes más exigentes, como el Uniform Bar Exam y el SAT.

ChatGPT para ciberseguridad

ChatGPT fue concebido principalmente para uso conversacional, en particular para desarrollar chatbots y asistentes virtuales que pudieran interactuar con los usuarios en lenguaje natural. Su versatilidad y flexibilidad lo han convertido en un valioso activo para muchos dominios. Los expertos aún están en las primeras fases de identificación de su aplicación en ciberseguridad. Dicho esto, hay varios casos de uso de la ciberseguridad que ChatGPT puede abordar de inmediato.

Una herramienta tan potente no dejará de suscitar polémica. A continuación, analizaremos lo bueno, lo malo y lo feo de ChatGPT, especialmente desde el punto de vista de ciberseguridad.

Depuración de código

GPT no está diseñado específicamente para la depuración de código, pero los desarrolladores lo han estado utilizando en la identificación de errores de código y vulnerabilidades. Puede generar explicaciones en lenguaje natural de los errores de código y sugerir soluciones. Con los datos de entrenamiento adecuados, será capaz de entender conceptos de programación y sintaxis, de igual forma que los programadores experimentados. Es esperada una evolución a futuro de  ChatGPT evolucione para el análisis de la estructura del código y la identificación de lagunas lógicas en un programa y así, evitar vulnerabilidades de seguridad.

Investigación de ciberataques

ChatGPT también puede ser utilizado para el examen de grandes cantidades de registros y otros datos de texto generados durante un incidente de seguridad, identificando patrones y anomalías asociados a un ataque. Puede crear instantáneamente resúmenes en lenguaje natural de sus hallazgos, colaborando con los expertos en ciberseguridad y los analistas forenses en la comprensión del alcance, de la cronología y de la naturaleza de un ataque para su rápida reparación.

Reducir la brecha de competencias

Al ayudar en tareas como el descubrimiento de vulnerabilidades, el análisis forense y la generación de informes, ChatGPT puede ayudar potencialmente a los equipos de ciberseguridad que luchan contra la escasez de personal cualificado. Los equipos de seguridad pueden utilizar ChatGPT para automatizar ciertos procesos, como el análisis de grandes archivos de registro y la creación de informes ejecutivos, para centrarse por completo en tareas que requieren análisis y conocimientos humanos.

Automatización de la configuración

Las herramientas y sistemas de software y ciberseguridad dependen de configuraciones correctas para funcionar eficazmente. Mediante instrucciones cuidadosamente elaboradas, también conocidas como ingeniería de avisos, ChatGPT puede ser entrenado para configurar automáticamente servidores, cortafuegos, sistemas de prevención de intrusiones y otras herramientas de ciberseguridad. Puede utilizarse para generar scripts para la automatización de configuraciones de forma segura y eficiente.

ChatGPT para ciberdelitos

Como cualquier tecnología, ChatGPT es un arma de doble filo. En las manos equivocadas, la IA puede perpetrar ciberdelitos avanzados.

Ataques de phishing impecables y selectivos

ChatGPT puede ayudar a los ciberdelincuentes a crear correos electrónicos de phishing impecables que pueden pasar fácilmente por escritos por una persona con autoridad, como el director general de una empresa. Los atacantes pueden crear este tipo de correos electrónicos en varios idiomas sin dejar de parecer nativos. Con un poco de ingeniería rápida, los atacantes también pueden utilizar ChatGPT para imitar el estilo y el tono de personas específicas, influyentes o de alto rango.

Ingeniería social indetectable

Las respuestas de ChatGPT son completamente humanas, lo que facilita el avance y la automatización de las estafas de ingeniería social. Las imágenes generadas por IA, la suplantación de audio y los vídeos falsos, combinados con un bot conversacional que domina el lenguaje natural, crean el terreno perfecto para perfiles falsos en redes sociales y todo tipo de intentos de ingeniería social exitosos.

Malware evasivo y polimórfico

Las herramientas antimalware detectan y bloquean el malware mediante la inspección del código y la coincidencia de patrones con firmas de malware conocidas. Los ciberdelincuentes pueden crear diferentes versiones de un mismo malware con un esfuerzo mínimo. Este tipo de malware polimórfico será de difícil detección mediante las herramientas de seguridad tradicionales. También es posible que la ciberdelincuencia clandestina ya haya creado programas ransomware utilizando ChatGPT.

Caza de vulnerabilidades

Las amenazas pueden manipular la capacidad de ChatGPT para depurar código con el fin de buscar brechas de seguridad y vulnerabilidades en aplicaciones y sistemas. En lugar de revisar miles de líneas de código, los agresores pueden simplemente pedir a ChatGPT que lo deconstruya y descubra posibles fallos. Recientemente, ChatGPT se utilizó para identificar vulnerabilidades en contratos inteligentes.

Ciberpropaganda y dilemas éticos: El lado feo de ChatGPT

En manos de actores del Estado-nación, agentes de propaganda, grupos de odio, sindicatos de ciberdelincuentes y hacktivistas, ChatGPT puede tener un impacto mucho más amplio y profundo en toda la sociedad.

Difusión de propaganda

Los actores cibernéticos patrocinados por el Estado y los grupos de odio pueden aprovechar ChatGPT para difundir conspiraciones y propaganda más rápidamente y a mayor escala que los bots tradicionales. Con su estilo conversacional y su vasto acervo de conocimientos, los bots impulsados por ChatGPT pueden esgrimir argumentos lógicos y convincentes en los canales de las redes sociales, promoviendo determinados valores y agendas. Incluso pueden hacerse pasar por personalidades influyentes para llamar la atención.

FUENTE: www.propertycasualty360.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *