Bogotá, julio 26 de 2023 – La IA generativa ha cambiado rápidamente lo que el mundo
pensaba que era posible con la inteligencia artificial, y su adopción generalizada puede
parecer impactante para muchos que no trabajan en tecnología. Inspira asombro e
inquietud, y a menudo ambos al mismo tiempo.
Alex Au Yeung, Chief Product Officer, Symantec Enterprise Division se plantea ¿cuáles
son sus implicaciones para la empresa y la ciberseguridad, destacando que es un
cambio de juego científico y de ingeniería para la empresa. “Una tecnología que puede
mejorar en gran medida la eficiencia de las organizaciones, permitiéndoles ser
significativamente más productivas con la misma cantidad de recursos humanos. Pero
el impacto de la rapidez con la que surgieron aplicaciones de IA generativa como
ChatGPT, Bard y GitHub Copilot aparentemente de la noche a la mañana
comprensiblemente tomó por sorpresa a los líderes de TI empresariales. Tan rápido
que en solo seis meses, la popularización de las herramientas de IA generativa ya está
llegando a un punto de inflexión tecnológico”.
La IA generativa opera en redes neuronales impulsadas por sistemas de aprendizaje
profundo, al igual que funciona el cerebro. Estos sistemas son como los procesos de
aprendizaje humano. Pero, a diferencia del aprendizaje humano, el poder de los datos
de fuentes múltiples combinado con la información correcta en la IA generativa
significa que el procesamiento de las respuestas será años luz más rápido. Lo que
podría tomar 30 años para que un individuo lo procese podría tomar solo un parpadeo.
Ese es un beneficio que se puede derivar dependiendo de la calidad, así como de las
cantidades masivas de datos que se pueden incorporar.
Los desafíos de la ciberseguridad
La IA generativa, incluido ChatGPT, se entrega principalmente a través de un modelo
de software como servicio (SaaS) de terceros. Uno de los desafíos que esto plantea es
que interactuar con IA generativa requiere proporcionar datos a este tercero.
Los grandes modelos de aprendizaje (LLM) que respaldan estas herramientas de IA
requieren el almacenamiento de esos datos para responder de manera inteligente a
las solicitudes posteriores que hagan los usuarios.
“Uno de los desafíos es que el uso de IA presenta problemas importantes en torno a la
pérdida de datos confidenciales y el cumplimiento. Proporcionar información
confidencial a los programas de IA generativa, como datos de identificación personal,
información de salud protegida o propiedad intelectual, debe verse desde la misma
perspectiva que otras relaciones con otras aplicaciones y debe incorporar los controles
adecuados. No se trata de frenar la innovación sino de hacer un uso responsable de
estas herramientas”, comentó Ricardo Dos Santos, Gerente de Servicios y
Ciberseguridad en eSoft LATAM, quien hace énfasis en que las soluciones Data Loss
Prevention o prevención de pérdida de datos (DLP, por sus siglas en inglés) son un
conjunto de herramientas y procesos que utilizan las empresas para garantizar que los
datos confidenciales no se pierdan, o se usen de manera indebida, o los usuarios no
autorizados accedan a ellos.
Y es que la información alimentada en herramientas de IA como ChatGPT se convierte
en parte de su conjunto de conocimientos. Cualquier suscriptor de ChatGPT tiene
acceso a ese conjunto de datos común. Esto significa que cualquier dato cargado o
sobre el que se haya preguntado se puede reproducir dentro de ciertas medidas de
seguridad de la aplicación para otros terceros que hagan preguntas similares. “Tal
como está hoy, la mayoría de las herramientas de IA generativa no tienen políticas de
seguridad de datos concretas para los datos proporcionados por los usuarios”, advierte
el especialista de Symantec – Broadcom.
“La amenaza interna también se vuelve significativa con la IA. Algunos colaboradores
de su empresa pueden usar ChatGPT para crear correos electrónicos muy realistas,
pero si no hacen la revisión adecuada, pueden duplicar el estilo de otro con errores
tipográficos, información imprecisa y más. Además, los atacantes también pueden
duplicar sitios web exactamente y eso abre otra brecha de seguridad”.
Lo que las empresas necesitan para la seguridad
Afortunadamente, existen soluciones de protección para la IA generativa, como
Symantec DLP Cloud, Adaptive Protection en Symantec Endpoint Security Complete
(SESC) y monitoreo en tiempo real de la seguridad del correo electrónico que abordan
estos desafíos emergentes y bloquean los ataques de diferentes maneras.
Symantec DLP Cloud amplía Generative AI Protection para empresas con las
capacidades que necesitan para descubrir, y posteriormente monitorear y controlar, la
interacción con herramientas de IA generativa dentro de sus organizaciones. Entre
otros beneficios, DLP puede usar IA para acelerar la priorización de incidentes,
ayudando a los analistas sénior a clasificar los más importantes y reconocer aquellos
que no son una amenaza crítica para la empresa.
Los beneficios incluyen:
– Proporcionar a las empresas la capacidad de comprender los riesgos a los que están
sujetas, por el uso de herramientas con IA generativa.
– Permitir el uso seguro y protegido de las herramientas populares de IA al brindar las
medidas de seguridad necesarias para bloquear la carga o publicación de datos
confidenciales de manera intencional o inadvertida.
– Identificar, clasificar y documentar el cumplimiento de identificación personal,
información de salud, propiedad intelectual y otros datos críticos.
Symantec Generative AI Protection permite a las empresas "decir sí" a las innovaciones
que mejoran la productividad de la IA generativa, sin comprometer la seguridad de los
datos y el cumplimiento.