El principal riesgo de la IA es la pereza mental humanaEscrito por Carles Soler Puig el 24/10/2023 a las 14:19:582463
(CEO de EXPAI) Este último año hemos vivido un proceso de innovación acelerada en el campo de la Inteligencia Artificial (IA). El subsector de la IA generativa ha presentado aplicaciones espectaculares en ámbitos como los conversadores (chatGPT) o la generación de imágenes a partir de texto (DALL·E, Midjourney). Esas mismas aplicaciones han llenado páginas en la prensa generalista, de manera que todos nos hemos convencido de que estamos ante una tecnología que va a transformar nuestras vidas en un plazo muy cercano.
Aunque sin una proyección pública tan prominente, recientemente también se ha acelerado el ritmo de desarrollo de proyectos basados en modelos de IA de soporte a la toma de decisiones. Dichos modelos, construidos mediante técnicas de Deep Learning, ayudan a organizaciones y profesionales a predecir el futuro más allá de la simple intuición y, por tanto, a poder tomar mejores decisiones ante preguntas como ¿este solicitante me devolverá el crédito? ¿este lunar desarrollará un tumor? ¿esta máquina tendrá una avería en las próximas 72 horas?
Desde un punto de vista tecnológico, esas aplicaciones son fascinantes, pero tanto la IA generativa como los modelos de predicción presentan diversos inconvenientes de los que conviene tomar consciencia. Un primero es la fuerte capacidad de impacto en el mercado de trabajo. Como en el cuento de Hans Christian Andersen, el rey se pasea desnudo, pero nadie se atreve a decirlo.
Hasta muy recientemente, la inquietud de que la automatización eliminara puestos de trabajo se concentraba en las actividades con un fuerte componente manual, especialmente industriales, pero también agrícolas. Ciertamente los robots liberan de tareas tediosas o peligrosas, pero esas tareas suponen una nómina que alimenta una familia. Y aunque es cierto que, a veces, el trabajador que las realiza es reubicado en tareas de mayor valor añadido, el feroz mercado competitivo obliga a las empresas a ser eficientes, no a ofrecer puestos que desarrollen el potencial humano.
La novedad de los recientes avances de la IA es que las afectadas son actividades que eran consideradas específicamente humanas y, por tanto, no automatizables. En el momento que, entre otros, guionistas de cine, programadores, periodistas, diseñadores, operadores de atención al público o abogados han empezado a sentirse inquietos por su futuro, la industria de la IA se ha conjurado para repartir ansiolíticos: no hay motivo de preocupación, la IA ha llegado para complementar y potenciar a los profesionales, no para substituirlos. Así que el discurso oficial generalizado consiste en lanzar alabanzas al vestido del rey.
El que firma el presente artículo no tiene ninguna bola de cristal ni vocación de adivino, por tanto, simplemente aplica la lógica capitalista (que, nos guste o no, aun es el sistema que nos organiza): si una actividad ve incrementada su productividad en el doble, lo más probable es que la mitad de los trabajadores que la realizaban se queden sin trabajo. Y si una cosa estamos empezando a comprobar fehacientemente, es que la IA ofrece significativas mejoras de productividad.
Pero la afectación en el mercado laboral no va a ser el único “daño colateral” de la IA. Imaginemos que un médico empieza a utilizar un sistema de soporte al diagnóstico. El mantra oficial es claro: la IA propone, el médico decide. Inicialmente seguro que va a ser así, ese médico va a supervisar intensamente el diagnóstico automatizado, y va a estar contento porque la IA ha enriquecido y mejorado su acción sanitaria. Imaginemos que, tras 99 diagnósticos acertados, el sistema ofrece una propuesta que no concuerda con la primera intuición del médico. ¿De verdad creemos que, una vez convencido de la bondad de la IA, el médico va a seguir su criterio en vez de simplemente validar la propuesta sugerida?
En el caso que nos ocupa, ese médico ya está formado, o sea que aun tendrá capacidad crítica para decidir. Pero ¿qué sentido tiene seguir formando multitud de profesionales superespecialistas, si básicamente su tarea es validar las propuestas de unos sistemas que van a acercarse a la infalibilidad? La tendencia al ahorro energético propia del Sapiens sapiens, que era básica para su supervivencia cuando vagábamos por la sabana africana, es una fuerza extraordinaria que nos llevará a confiar plenamente en “El Gran Decisor”. Así que corremos el riesgo de olvidar nuestro conocimiento colectivo una vez traspasado a los modelos predictivos que lo replican.
Nuestra pereza mental como especie nos llevará, más temprano que tarde, a poner confianza plena en una tecnología que, ciertamente, funciona muy bien; pero esa posible dimisión de nuestra capacidad decisoria nos situaría en una posición de extrema fragilidad ante cualquier incidente. Baste recordar el ejemplo del crash bursátil de 1987, que se vio agravado por un nuevo sistema de compra-venta automatizado de acciones en Wall Street que aceleraba la velocidad de la caída a medida que la cotización iba bajando y que tuvo que ser desconectado para regularizar la crisis.
Ante los peligros de una evolución que puede llevarnos al cataclismo, conviene recordar que el futuro no está escrito. La tecnología es neutra y es responsabilidad de los humanos aplicarla bien o mal. Así que en los momentos de alienación-alucinación colectiva, es necesario que alguien grite ¡El rey está desnudo!
Noticias Relacionadas:Elon Musk quiere meter IA en tu cerebro La IA va a cambiar radicalmente la forma de trabajar de los equipos de ventas |