Desde el lanzamiento de ChatGPT en noviembre, el mundo aparentemente ha estado en una constante discusión sobre las impresionantes habilidades del chatbot de Inteligencia Artificial, las limitaciones evidentes y el potencial para ser utilizado para el bien y el mal. En esta edición especial, los expertos de Tenable destacamos cuatro cosas sobre ChatGPT que son importantes en este momento para los profesionales de la ciberseguridad.
1. No uses todavía ChatGPT para ningún trabajo crítico de ciberseguridad
A pesar de las emocionantes pruebas de ChatGPT para tareas como encontrar errores de codificación y vulnerabilidades de software, el rendimiento del chatbot puede ser muy impredecible y su uso como asistente de ciberseguridad debe revisarse, como mínimo, de forma manual y cuidadosa.
Por ejemplo, Chris Anley, jefe de científicos de NCC Group, lo usó para realizar revisión de códigos de seguridad y concluyó que “realmente no funciona” para esto. Las herramientas de IA generativa, en el mejor de los casos, producen información útil que es precisa entre el 50% y el 70% de las veces, según Jeff Hancock, miembro de la facultad del Instituto Stanford para la IA centrada en el ser humano.
Curiosamente, un estudio reciente de Stanford descubrió que los usuarios con acceso a un asistente de código de IA “escribían un código significativamente menos seguro que los que no tenían acceso”, mientras que, irónicamente, se sentían más seguros en su trabajo. Mientras tanto, en diciembre, Stack Overflow, el sitio web de preguntas y respuestas para programadores, prohibió las respuestas de ChatGPT porque encontró que en muchos casos eran incorrectas.
De hecho, OpenAI, creador de ChatGPT, dejó claro que aún es muy pronto y que queda mucho trabajo por delante. “Es un error confiar en él para algo tan importante en este momento”, tuiteó el CEO de OpenAI, Sam Altman, en diciembre.
2. El gran potencial de ChatGPT
Si bien ChatGPT aún no está listo como una herramienta confiable para los profesionales de ciberseguridad, su potencial es atractivo. Aquí hay algunas áreas en las que ChatGPT y la tecnología de IA generativa demostraron un buen potencial, aunque a menudo defectuoso a temas relacionados con:
- Respuestas ante incidentes
- Formación y educación
- Detección de vulnerabilidades
- Prueba de código
- Análisis de malware
- Reportes escritos
- Operaciones de seguridad
Sin embargo, una advertencia: si estás ingresando datos de trabajo, verifica primero con tu empleador qué está bien y qué no compartir en la plataforma. Las empresas han comenzado a emitir normas que restringen y controlan la forma en la que los empleados pueden usar herramientas de IA generativa porque existe preocupación e incertidumbre sobre lo que estas herramientas podrían hacer con los datos ingresados en ellas: ¿A dónde van esos datos? ¿Dónde se almacenan y por cuánto tiempo? ¿Cómo se podrían usar? ¿Cómo se protegerán?
3. Los atacantes usarán ChatGPT en tu contra, o tal vez ya lo hayan hecho
Aunque ChatGPT es un trabajo en progreso, es lo suficientemente bueno para los delincuentes, quienes, según se informa, ya lo están aprovechando para mejorar el contenido de sus correos electrónicos de phishing y generar código malicioso, entre otras actividades.
“La aparición y el abuso de los modelos generativos de IA como ChatGPT aumentarán el riesgo a otro nivel en 2023”, indicó Matthew Ball, analista de la firma de investigación de mercado Canalys.
Las ciberamenazas potenciales o reales relacionadas con el abuso de ChatGPT incluyen:
- Ayuda para crear correos electrónicos de phishing más efectivos
- Aprovecharlo para generar contenido difamatorio y falso
- Reducir la barrera de entrada para los atacantes menos sofisticados
- Usarlo para crear malware
- Dirigir a las personas a sitios web maliciosos desde un chatbot de IA
4. ¿Va ChatGPT tras tu trabajo?
No te preocupes por si ChatGPT te quitará el trabajo. En cambio, las herramientas de IA generativa te ayudarán a hacer mejor tu trabajo, más rápido, con mayor precisión y de manera diferente. Después de todo, independientemente de cuán sofisticadas se vuelvan estas herramientas es posible que siempre necesiten en cierto grado de supervisión humana, según Seth Robinson, vicepresidente de investigación de la industria en Computing Technology Industry Association (CompTIA).
“Entonces, cuando hablamos de habilidades de IA, no solo nos referimos a la capacidad de codificar un algoritmo, construir un modelo estadístico o extraer grandes conjuntos de datos. Estamos hablando de trabajar junto con la IA dondequiera que esté integrada en la tecnología”, escribió en el blog “Cómo pensar en ChatGPT y la nueva ola de IA”.
Mientras tanto, el banco de inversión UBS dijo en una nota reciente: “Creemos que las herramientas de IA en general terminarán como parte de la solución en una economía que tiene más vacantes que trabajadores disponibles”.
Específicamente para los profesionales cibernéticos, el conjunto de habilidades deseado implicará saber cómo contrarrestar las amenazas y los ataques asistidos por IA, lo que requiere comprender “la intersección de la IA y la ciberseguridad”, se lee en una publicación de blog del sitio web Dice.com.