COBERTURA #90Interés General

Implementación IA: Equilibrio entre innovación y cumplimiento

En 2024, el uso de la inteligencia artificial (IA) empresarial se disparó un 595%, transformando industrias y desatando debates regulatorios a nivel global. Según la Organización para la Cooperación y el Desarrollo Económicos (OCDE), actualmente hay más de 1,000 regulaciones e iniciativas de IA en consideración en 69 países. El rápido ritmo de adopción de la IA desafía a legisladores, juntas directivas y administradores de riesgos a equilibrar políticas que apoyen el desarrollo de la IA , mientras garantizan que los sistemas sean confiables, justos, transparentes y seguros.

La seguridad y la privacidad de los datos son la raíz de muchos beneficios y preocupaciones potenciales en torno a la IA. Según una visión general de las tendencias de seguridad de Lakera, si bien el 93% de los profesionales de la seguridad afirma que la IA puede garantizar la ciberseguridad, el 77% de las organizaciones se encuentran sin preparación para defenderse contra las amenazas de la IA. Agravando el desafío, están los diversos grados de confianza de los tomadores de decisiones empresariales hacia las tecnologías de IA. En el reciente State of Intelligent Automation Report–AI Trust Barometer de ABBYY, el 50% de aquellos que no confían en la IA citan preocupaciones sobre la ciberseguridad y las violaciones de datos. Adicionalmente, el 47% y el 38% tienen inquietudes sobre la precisión de la interpretación y el análisis de sus modelos de IA.

Al implementar la IA, la confianza y la fiabilidad son primordiales para empresas, gobiernos e instituciones de todo el mundo. Para los líderes empresariales, el desafío radica en navegar el potencial transformador de la IA mientras gestionan sus riesgos inherentes.

Las siguientes cuatro consideraciones pueden ayudar a las empresas a garantizar políticas y prácticas honestas, confiables y creíbles de IA, que puedan cumplir con los estándares regulatorios y gestionar el riesgo empresarial.

1. Empezar con Datos de Buena Calidad

Como dice el refrán, «basura entra, basura sale». La IA se basa en datos de entrenamiento, gran parte de los cuales no han sido tocados por humanos. Si bien esta es una razón clave por la que muchas empresas la adoptan, estos datos también son una potencial debilidad de seguridad. La información desactualizada y no estructurada o los datos personales son introducidos inadvertidamente en los grandes modelos de lenguaje (LLM por sus siglas en inglés), lo que lleva a sesgos, imprecisiones y oportunidades para el robo de datos y la discriminación.

Los LLM funcionan mejor cuando los datos de los que aprenden son ricos y están bien organizados. Para la mayor parte de las organizaciones de hoy en día, esto significa que los LLM deberían contar con una comprensión mínima de las necesidades y de las operaciones específicas que, teóricamente, deben apoyar. La generación aumentada por recuperación (RAG por sus siglas en inglés), una técnica para mejorar la precisión y confiabilidad de los LLM, resurge para cerrar esta brecha. RAG está ganando rápidamente terreno como un método rentable y seguro para enriquecer los LLM con datos organizacionales, mejorando significativamente su utilidad y confiabilidad.

Para abordar el desafío de los datos de entrenamiento deficientes, las organizaciones deben comenzar por auditar sus repositorios de datos, para identificar brechas, imprecisiones e información potencialmente sensible. Asimismo, es fundamental establecer protocolos claros de limpieza y de estructuración de datos para garantizar entradas de mayor calidad. Los datos relevantes y bien organizados allanan el camino para aprovechar al máximo una solución RAG y proporcionar a los LLM una mayor comprensión contextual y una mayor alineación empresarial. Finalmente, los equipos multifuncionales pueden colaborar para implementar procesos RAG de forma segura, garantizando prácticas sólidas de gobernanza de datos que salvaguarden contra las violaciones.

2. Garantizar una IA Explicable y Transparente

Las decisiones impulsadas por la IA pueden presentar sesgos de datos, lo que puede perpetuar la discriminación y la desigualdad. Para abordarlo, es importante contar con equipos diversos con una amplia gama de perspectivas que moldeen sus capacidades para desarrollar e implementar sistemas de IA , garantizando una IA explicable y transparente. Las empresas deben implementar equipos multifuncionales dedicados a la ética de la IA, incluyendo comités de gestión de riesgos algorítmicos y gobernanza de datos.

Se debe hacer hincapié en las herramientas que permiten la transparencia de la IA, la reducción de sesgos y las pistas de auditoría, lo que habilitará a las empresas la confianza en sus soluciones de IA y  la verificación del cumplimiento bajo demanda. Las herramientas de seguridad impulsadas por la IA se benefician de la transparencia, lo que permite a los analistas comprender las decisiones y mejorar los métodos de detección de infracciones.

Los desarrolladores deben proporcionar interfaces que permitan comprender, interpretar y desafiar las decisiones de la IA, especialmente en sectores críticos como seguros, atención médica y finanzas. Las organizaciones deben ser claras sobre el funcionamiento de la IA, especialmente cuando se trata de datos personales. Cuando los usuarios entienden la forma en que la IA maneja los datos, pueden tomar decisiones informadas sobre el intercambio de información, reduciendo el riesgo de exposición de los detalles personales innecesarios.

Las empresas deben priorizar la rendición de cuentas, creando marcos para identificar y mitigar sesgos, auditando regularmente sus sistemas y siendo receptivas a los comentarios. Las auditorías externas se han convertido en una forma popular de proporcionar una perspectiva imparcial. Por ejemplo, ForHumanity es una organización sin fines de lucro que puede auditar de forma independiente los sistemas de IA para analizar el riesgo. Recientemente, lanzaron un Acelerador de Políticas de IA que alienta a las empresas de IA a presentar sus productos para auditorías según rigurosos estándares de gestión de riesgos, proporcionando una vía para probar proactivamente las herramientas de IA en cuanto a su cumplimiento normativo y responsabilidad.

Otro camino para una IA confiable es la introducción de IA especializada o diseñada para un propósito específico, como los modelos de lenguaje pequeños (SLM por sus siglas en inglés). Las empresas han comenzado a recurrir a la IA diseñada con un propósito específico para tareas y objetivos concretos. Este enfoque reduce la generalidad innecesaria para obtener resultados más eficientes y precisos, al tiempo que reduce los riesgos de imprecisión o de investigación excesiva. Comprimiendo el propio modelo, la precisión de sus cálculos es menor, lo que aumenta la velocidad y la precisión.

3. Incorporar la Supervisión Humana

La IA debe mejorar las capacidades humanas, no reemplazarlas, especialmente en la gestión de la seguridad, donde las decisiones de esta tecnología pueden tener consecuencias significativas. La supervisión humana ayuda a mantener los sistemas de IA alineados con los estándares éticos y con los valores sociales. Sin intervención humana, los sistemas de IA cometen errores, muestran prejuicios y son mal utilizados, lo que lleva a graves problemas de seguridad y privacidad.

A menudo denominado «humano en el circuito» (HITL por sus siglas en inglés), este enfoque colaborativo combina la entrada humana con el aprendizaje automático para mejorar la precisión y la credibilidad de los sistemas de IA. Las organizaciones pueden incorporar HITL en diferentes procesos, incluyendo: el entrenamiento, donde los humanos etiquetalos datos relacionados para ajustar los algoritmos; las pruebas, donde las personas brindan retroalimentación sobre el rendimiento del modelo; o la toma de decisiones, donde los seres humanos revisan y confirman el contenido marcado por la IA.

Para implementar eficazmente los enfoques HITL en los sistemas de IA, las organizaciones deben integrar la supervisión humana en las fases de entrenamiento, prueba, implementación y mantenimiento. Los equipos deben etiquetar los datos de entrenamiento, brindar retroalimentación continua y validar los resultados generados por la IA para mejorar la precisión y la credibilidad del sistema.

Asimismo, es crucial educar a los empleados sobre la ética de la IA, los requisitos regulatorios y las mejores prácticas. Los líderes empresariales deben ofrecer sesiones de capacitación continuas para informar al personal sobre los cambios en las regulaciones de IA y las estrategias de cumplimiento. El uso de personas para supervisar las prácticas éticas priorizará la privacidad desde el diseño, asegurando que la recopilación, el procesamiento y el almacenamiento de datos sigan prácticas seguras y transparentes.

4. Realizar una Evaluación Continua

Las amenazas emergentes y los cambiantes paisajes regulatorios plantean un desafío crítico para las empresas. Al respecto, la IA puede ayudar a aliviar la carga, automatizando el monitoreo regulatorio. Las herramientas de IA, como la inteligencia de procesos (PI por sus siglas en inglés), analizan flujos de trabajo y grandes conjuntos de datos para señalar posibles problemas de cumplimiento, asegurando la adhesión a las regulaciones, al tiempo que reducen los esfuerzos manuales y los costos.

Utilizando métricas de confianza predefinidas, el software podrá detectar y abordar riesgos de forma temprana, previniendo  amenazas cibernéticas antes de que se produzcan violaciones de datos. Brinda alertas ante el incumplimiento de las reglas o del desvío de  los procesos, lo que permite a las empresas abordar de forma proactiva las discrepancias y garantizar el cumplimiento. Ejemplos son las auditorías continuas de los flujos de trabajo financieros frente a las reglas del GDPR o el refinamiento de los modelos de detección de fraude para reducir los falsos positivos y detectar nuevos patrones susceptibles de fraude. Asimismo, las organizaciones pueden usarlo para garantizar el acceso únicamente del personal autorizado, mediante el seguimiento del inicio de sesión.

Una eficaz gobernanza de IA  y las mejores prácticas no solo mitigan los riesgos empresariales, sino que  generan beneficios comerciales tangibles, como una mayor lealtad a la marca y una mayor retención de clientes. Con la implementación de marcos de IA confiables, las organizaciones pueden fomentar la confianza entre las partes interesadas, asegurando un crecimiento sostenible, mientras salvaguardan su reputación en un mundo cada vez más impulsado por la IA.

FUENTE: www.rmmagazine.com