Los altos directivos de las empresas españolas están preocupados por el uso de la IA generativa, una tecnología que permite crear contenido de texto, audio o imágenes a partir de datos existentes.
Según un informe de Kaspersky, el 96% de los directivos españoles cree que sus empleados utilizan regularmente sistemas de IA generativa, como ChatGPT. Sin embargo, solo el 19% ha debatido la imposición de reglas para controlar su uso.
Los directivos temen que la IA generativa pueda suponer un riesgo para la seguridad de la información de la empresa. Por ejemplo, los empleados podrían utilizarla para crear documentos falsos o para robar datos confidenciales.
También temen que la IA generativa pueda utilizarse para crear contenido perjudicial para la imagen de la empresa, como noticias falsas o publicidad engañosa.
En el informe de Kaspersky, el 64% de los directivos españoles teme pérdidas económicas por el uso de la IA generativa.
Para mitigar estos riesgos, los directivos recomiendan que las empresas implementen medidas de seguridad específicas para la IA generativa. Por ejemplo, podrían utilizar herramientas de análisis de malware para detectar contenido malicioso generado por IA.
También podrían establecer políticas de uso de la IA generativa que definan qué tipos de contenido se pueden generar y cómo se debe utilizar.
Recomendaciones para las empresas
Para mitigar los riesgos del uso de la IA generativa, las empresas pueden seguir las siguientes recomendaciones:
- Implementar medidas de seguridad específicas para la IA generativa.
- Establecer políticas de uso de la IA generativa.
- Formar a los empleados sobre los riesgos del uso de la IA generativa.
Las empresas también pueden trabajar con proveedores de IA generativa para garantizar que sus productos y servicios sean seguros y cumplan con las normas de privacidad.