La inteligencia artificial (IA) se ha extendido a casi todos los sectores, ya que tanto las empresas como los consumidores buscan aprovechar sus eficiencias de escala. Tareas como el análisis de datos, la transcripción, la atención al cliente y muchas más se pueden realizar utilizando IA para reducir el tiempo de obtención de resultados en órdenes de magnitud. La planificación financiera no es una excepción.
Según una encuesta de F2 Strategy, más de la mitad de las empresas de gestión patrimonial ya tienen un proyecto de IA en marcha. Están interesadas en el análisis predictivo de las condiciones del mercado y los cambios de valores a lo largo del tiempo, el reconocimiento óptico de caracteres para analizar documentos, la automatización del flujo de trabajo, los chatbots y más. El potencial es claro: la IA puede reducir el tiempo humano dedicado a estas tareas hasta en un 90%. Al mismo tiempo, más del 60% de las empresas dicen que necesitan más educación sobre IA. Por lo tanto, si bien el beneficio es innegable, la relación valor-riesgo es menos clara.
Esta dinámica es particularmente importante para la planificación financiera, donde lo que está en juego es muy importante: el dinero de los individuos y sus familias. Aunque los servicios de gestión de patrimonios a medida suelen estar dirigidos a personas con un mayor patrimonio neto, la IA permite ofrecer estos servicios a un grupo más amplio de personas. Los asesores pueden desarrollar perfiles de clientes y ofrecer planes personalizados en función de la edad, los activos, los riesgos, los objetivos y las necesidades en una fracción del tiempo, lo que significa que las empresas pueden ofrecerlos a más personas. Esto representa un nuevo mercado para los gestores de patrimonios, pero también un grupo de riesgo más grande.
Siempre debemos recordar que los actores de amenazas también están utilizando la IA. Ofrece a los atacantes exactamente los mismos beneficios: es un multiplicador de fuerza que les permite aumentar la escala y la eficacia de sus campañas. Incluso pueden envenenar el propio modelo de IA para revelar información confidencial o entregar resultados maliciosos. Además, los empleados que no están adecuadamente capacitados pueden exponer inadvertidamente información confidencial a través de la información que ingresan en las herramientas de IA, que posteriormente la incorporan a sus actividades de aprendizaje automático. Ya hemos visto casos de esto que invalida las reclamaciones de propiedad intelectual.
Por lo tanto, los controles de seguridad deben integrarse en todo el ciclo de vida de la IA, incluida la capacitación de los empleados. Antes de utilizar cualquier herramienta de IA, las organizaciones deben comprender la clasificación de privacidad de todos los datos que se pueden ingresar, la fuente de los datos utilizados para entrenar las herramientas de IA y los detalles de los protocolos de seguridad establecidos para proteger la información confidencial. Esto debe ser parte de la implementación de la IA desde el primer día. Los sistemas de IA abiertos conllevan aún más riesgos, ya que están diseñados para ser accesibles al público, lo que les permite aprender de un conjunto de datos mucho más grande, pero también permite la manipulación por parte de actores maliciosos. Los sistemas cerrados son más seguros, pero requieren una gestión más práctica y capacitación en modelos. Los empleados deben recibir una capacitación exhaustiva sobre la herramienta y su funcionamiento, y cómo usarla de manera segura, haciendo hincapié en qué datos se pueden usar y cuáles nunca se deben exponer a un modelo de lenguaje grande (LLM) como el tipo que impulsa las aplicaciones de IA generativa.
Al implementar una solución basada en IA, es importante identificar el alcance de la herramienta y restringir su acceso a los datos a lo que sea absolutamente necesario para entrenarla. Desarrollar una comprensión integral de la privacidad de la información, la fuente de los datos del modelo y los mecanismos de seguridad nativos integrados. Muchas herramientas de IA tienen defensas integradas para protegerse contra el uso poco ético; un buen ejemplo son las reglas de ChatGPT que buscan evitar que las personas lo usen con fines nefastos, como la creación de malware. Sin embargo, también está claro que estas reglas se pueden eludir mediante mensajes ingeniosamente redactados que ocultan la intención del usuario. Este es un tipo de ataque de inyección de mensajes, que es una categoría de amenazas exclusiva de los sistemas basados en IA. Deben implementarse controles sólidos para prevenir estos ataques antes de que ocurran. En términos generales, estos controles caen dentro del alcance de las estrategias de ciberseguridad de confianza cero.
Las herramientas de IA, especialmente los LLM que permiten la IA generativa, no deben tratarse como una herramienta de software típica. Son más bien un híbrido entre una herramienta y un usuario. Los programas de confianza cero limitan el acceso a los recursos en función de la función, el alcance y las necesidades laborales individuales de una persona. Esto limita el daño que un atacante puede hacer al comprometer a un solo empleado, porque limita el rango de movimiento lateral. Debemos recordar que agregar cualquier herramienta de software también aumenta la superficie de ataque al ofrecer más puntos de entrada a un atacante. Poner en peligro una herramienta, como una herramienta de IA, que tiene acceso ilimitado a información de identificación personal, secretos de la empresa, herramientas patentadas, pronósticos estratégicos, análisis competitivos y más podría ser catastrófico. Prevenir este tipo de brechas debe ser la prioridad del debate a nivel de estrategia para implementar herramientas de IA desde el principio. Después de un incidente de ciberseguridad, a menudo es demasiado tarde.
Si bien la mayoría de las herramientas de IA vienen con seguridad incorporada, las organizaciones deben tener cuidado de adaptarlas a sus necesidades específicas. También deben ir más allá de ellas. A pesar de las similitudes, cada organización tendrá casos de uso únicos, y calibrar la defensa para que coincida con estas dinámicas es una apuesta segura para la ciberseguridad en 2024. El costo del cibercrimen alcanzó los 8 billones de dólares en 2023, según un informe de Cybersecurity Ventures. Claramente, no se trata de una amenaza de nicho. Puede considerarse razonablemente una de las principales amenazas a las que se enfrenta toda empresa en la actualidad, y la seguridad proactiva es, por tanto, una base para hacer negocios.
Cuando hablamos de IA, la seguridad es aún más importante. La IA no sustituirá a los asesores financieros, pero llevará a la industria a su siguiente etapa de evolución, y eso significa nuevas amenazas. La escala de los modelos y los datos que ingieren amplían la superficie de ataque de forma exponencial, y una sola infracción puede anular todas y cada una de las ganancias que una empresa obtiene aprovechando la IA. El análisis y el control de la ciberseguridad, en el marco de un modelo de confianza cero, son indispensables para liberar todo el potencial de cualquier herramienta basada en IA.
Read less