Cuando las empresas adoptan nuevas tecnologías, safety y security suelen quedar en un segundo plano. Parece más importante hacer llegar nuevos productos o servicios a los clientes y usuarios lo más rápido posible y al menor costo y, que estos productos sean a la vez safe y secure, puede ser un proceso lento y costoso.
A medida que las empresas se embarcan en grandes transformaciones digitales impulsadas por Inteligencia Artificial los riesgos pueden aumentar. IA y ML (Inteligencia Artificial y Machine Learning) requieren más datos y datos más complejos que otras tecnologías y no nos sorprende que la ciberseguridad sea el riesgo más preocupante para los usuarios de IA. Después de todo, el aprendizaje automático es software.
Los ingenieros deben comprender las características específicas de la Inteligencia Artificial y Machine learning, deben enfrentar los desafíos de seguridad que presentan y, por supuesto, conocer todos los posibles enfoques para abordarlos.
Machine Learning está en todas partes, desde la predicción del tráfico, los sistemas de recomendación, el análisis de marketing, el diagnóstico médico hasta la conducción autónoma, el control de robots o el apoyo a la toma de decisiones para empresas o incluso gobiernos. Los sistemas Machine Learning han producido un cambio disruptivo en la sociedad, permitiendo la automatización de muchas tareas aprovechando la enorme cantidad de información disponible en la era Big Data. En algunas aplicaciones, los sistemas ML han demostrado capacidades impresionantes, incluso superando a los humanos en algunos casos. A pesar de estos logros, la penetración de ML en muchas aplicaciones del mundo real ha traído nuevos desafíos relacionados con la confiabilidad de estos sistemas. El potencial de estos algoritmos para causar comportamientos no deseados es una preocupación creciente en la comunidad de ML, especialmente cuando están integrados en sistemas del mundo real ya que pueden presentar consecuencias en el mundo real: Se ha demostrado que ML podría retrasar los diagnósticos médicos, causar daños ambientales, daños a los humanos, adoptar comportamientos racistas, sexistas y discriminatorios, o incluso provocar accidentes de tráfico. Por otro lado, los algoritmos de aprendizaje son vulnerables y pueden verse comprometidos por atacantes inteligentes, que pueden obtener una ventaja significativa al explotar las debilidades de los sistemas ML.
¿Cómo podemos confiar en los sistemas Machine Learning?
1) El primer paso es concienciar a cualquier persona involucrada en el desarrollo de sistemas de aprendizaje automático que debe comprender los riesgos potenciales y las posibles soluciones
2) Utilizar orientación, estándares, mejores prácticas y herramientas
3) Establecer sistemas para el control cruzado y la verificaciónde datos de forma periódica.
4) Mantenerse siempre un paso adelante aplicando técnicas de vanguardia