Reflexiones sobre la Inteligencia ArtificialEscrito por Antonio Elias el 18/03/2025 a las 14:18:401749
(Catedrático de la Universidad Politécnica de Cataluny (UPC)) Desde la irrupción de “Chat GPT”[1], en noviembre de 2022, la expresión “Inteligencia Artificial” se ha convertido en objeto de conversaciones, conferencias, inversiones, miedos y una gran cantidad de conjeturas, creando incluso una burbuja de desarrollos de sistemas, llamados de IA, que han asaltado nuestras vidas transformando muchos aspectos de nuestras rutinas habituales, tanto en el trabajo como en el ocio, y en diferentes ámbitos, como, entre otros, pueden ser: la Educación, la Medicina, la Investigación, el Reconocimiento de Voz e Imagen, la Asistencia Virtual, etc. Los sistemas IA están facilitando cada día más y mejores prestaciones. Todo ello nos induce a pensar que estamos ante una maquinaria instrumental de comportamiento humano, y, a veces, susceptible de substituirnos y anularnos, cuando, probablemente, la IA no es más que una herramienta, compleja, eso sí, no es como un simple destornillador, pero es una herramienta, al fin y al cabo, que todavía, y espero que, por muchos años, está sometida al control humano.
Si bien para la palabra “artificial” podemos disponer de una definición más o menos completa y conceptualmente afianzada, no ocurre lo mismo con la palabra “inteligencia”. El concepto que subyace bajo la palabra “inteligencia” no es un concepto cerrado.
La palabra “artificial”, nos indica algo que no es natural, algo que está hecho con arte (artefacto), es decir: algo realizado (facto) por las manos del ser humano usando una determinada técnica (arte). Cuando la palabra artificial la precedemos con la palabra “inteligencia”, Inteligencia Artificial, en general, nos imaginamos una máquina capaz de pensar, que podemos usar como herramienta para solucionar multitud de problemas cotidianos, lo cual es cierto, y también con un proceso de razonamiento, o cavilación, objetivo y prácticamente indiscutible. Si bien lo primero es cierto, la IA es una herramienta compleja muy útil, lo segundo, el razonamiento objetivo, sin sesgos, es bastante ficticio.
Algunos psicólogos consideran que hay distintos tipos de inteligencia: Lingüística, Lógico-Matemática, Espacial, Musical, Emocional, … Además, coloquialmente, estamos acostumbrados a abusar de la palabra “inteligencia”, así, hablamos de animales inteligentes, de ecosistemas inteligentes susceptibles de autorregular su equilibrio y perdurar a lo largo del tiempo, de dispositivos inteligentes, por ejemplo, los vehículos autónomos o los robots capaces de realizar funciones sin intervención humana, o incluso edificios inteligentes, capaces, entre otras funciones, de optimizar el consumo de energía cerrando luces y aires acondicionados cuando no hay presencia humana. En lo que respecta a los animales, tal vez sea real asignarles un mínimo de inteligencia, pero ni los ecosistemas, ni los artefactos autónomos, son inteligentes, son sistemas con automatismos adaptativos, capaces de reaccionar ante unas determinadas variables de su entorno.
Los automatismos simples nunca han sido vistos como inteligentes, así, por ejemplo, un termostato formado por la unión de dos varillas de metales diferentes, que con el aumento de calor se dilatan curvando la unión y desconectando el circuito de calefacción, no es más que la implementación de una buena, y útil, idea. Sin embargo, cuando, gracias a la tecnología electrónica, los automatismos separan la acción (el músculo, o la fuerza), del control (gestión), ya los empezamos a considerar “inteligentes”, así, en el caso de los modernos termostatos, un sensor de temperatura envía su medida a un dispositivo de control que activa, o desactiva, el sistema de calefacción. La ventaja de separar el sensor del centro actuador o de control es que, con un solo dispositivo de control podemos programar horarios de calefacción o aire acondicionado, podemos conectarlo con dispositivos de telefonía móvil para cambiar la temperatura requerida, y activar o detener los sistemas de calefacción o aire acondicionado, estando fuera del lugar cuya temperatura controlamos. En telefonía, el primer sistema de conmutación automática paso a paso con relés Strowger, la función de conmutación y el establecimiento del camino de conexión, lo realizaba cada conmutador o relé (cada paso) de acuerdo con el número marcado por el abonado llamante, al cabo de unos pocos años fueron substituidos por los sistemas Rotary, que disponían de un registro capaz de acumular varios números marcados, e ir actuando sobre los relés estableciendo distintos caminos simultáneamente de acuerdo con los números llamados guardados en los registros. Se había separado la acción del control, se ganaba en eficacia y eficiencia.
Esta filosofía de separar los actuadores del control, alcanzó su máxima expresión con el diseño de la máquina de John Von Neumann, en 1945, quien sentó la base de las arquitecturas de los modernos ordenadores multipropósito: Una Unidad Central de Proceso (CPU) compuesta por una Unidad de Control (CU) que gobernaba (gobierna o gestiona) los dispositivos de Memoria y los periféricos de Entrada y Salida, y una Unidad Aritmético Lógica (ALU) que realizaba las funciones o procesos requeridos. La separación entre la gestión y la acción de la máquina de Von Neumann, en esencia es un calco de cómo funciona el cuerpo humano: Un cerebro (hardware), con una mente (Software) que gestiona un conjunto de músculos, vísceras, y demás infraestructuras (cuerpo humano). Quizá sea por estas similitudes que ya desde 1945 se empezara a pensar y diseñar estructuras de inteligencia artificial.
Todos sabemos que las aplicaciones de IA las proporciona una máquina, y, hasta ahora, al menos, las máquinas no tenían ideología, eran neutras en este sentido. Habitualmente, e inconscientemente, inducidos por el concepto de máquina, cometemos un gran error de apreciación, el de pensar que los argumentos, las soluciones, y los comentarios que nos proporciona la interacción con una IA, son respuestas neutras, o imparciales. Los sistemas y las aplicaciones de IA no son neutros, tienen sesgos, polarizaciones más o menos acentuadas, que se producen, voluntariamente o involuntariamente, tanto en su arquitectura y montaje, cómo, sobretodo, en su entrenamiento. Recordemos, por ejemplo, que en febrero de 2024, el CEO de Google, Sundar Pichai, tuvo que disculparse y prometer que corregirían el funcionamiento de su IA de Lenguaje Generativo "Gemini", porque muchos usuarios se habían quejado de que daba respuestas demasiado "progres" (woke) que no progresistas, en concreto fomentaba el no consumo de carne, ni de combustibles fósiles[2]. Tenemos, pues, que tener presente que las aplicaciones de IA, no son objetivas en sentido estricto, sino que arrastran los sesgos y polarizaciones de su estructura y entrenamiento.
Por otro lado, y especialmente para los que somos legos en la materia, las técnicas de “IA Generativa” con el LLM (Large Lenguage Model), que nos permite entendernos con la máquina mediante el uso de nuestro idioma habitual, la calidad de las respuestas, debida a su facilidad, y entrenamiento, para manejar grandes cantidades de datos (Deep Learning), la rapidez, la bondad, cuantía y originalidad de las soluciones, y la exhaustividad de los argumentos que nos proporcionan las aplicaciones de la Inteligencia Artificial, nos provoca la percepción de que estamos operando, a distancia, con un ser humano, y de esta sensación nacen expectativas y miedos que no tiene otro fundamento que el desconocimiento de las técnicas y tecnologías que subyacen debajo de los sistemas de IA. Como decía el gran científico y escritor Arthur C. Clarke: “Cualquier Tecnología lo suficientemente avanzada es indistinguible de la Magia”[3].
Según algunos expertos, la inteligencia artificial puede clasificarse en tres grupos:
Entre las diferentes iniciativas de implementación de sistemas AGI, los desarrolladores de un nuevo sistema llamado “Gemini 2.0 Flash Thinking” lo describen como una herramienta que “muestra explícitamente sus pensamientos, considerándolo una forma avanzada de razonamiento que se asemeja a la de los humanos. Investigando sobre esta idea Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la UNED, y su equipo, han realizado un estudio, con el que se pretendía obligar a las IA a razonar en lugar de identificar patrones previamente aprendidos, y, después de analizar 16 sistemas de gran tamaño que usan el modelo LLM, concluye que los modelos de IA dependen en gran medida de la memorización más que del razonamiento genuino[4].
Ocurre que, aunque razonar es un tipo específico de pensamiento que implica el uso de la lógica y el análisis para llegar a conclusiones, tomar decisiones o resolver problemas, basándose en la argumentación, y generalmente, siguiendo reglas de lógica y principios perfectamente comprobados y asentados. El “hecho de pensar”, es un proceso mucho más amplio, que hace la mente humana, abarcando cualquier actividad de la mente, como recordar, imaginar, reflexionar, o simplemente tener ideas. Pensar puede ser algo espontáneo, sin tener que seguir, necesariamente, una estructura lógica o planificada. Por ejemplo, pensar en lo que vas a hacer “después de”, o tener pensamientos aleatorios.
Por eso, parece difícil que los sistemas AGI puedan emular completamente la mente humana, y espero que los sistemas AGI sigan siendo una herramienta. Por otro lado, tampoco creo que haya que reducir, conceptualmente, los sistemas IA, a un “software de plagio” como dijo Noam Chomsky en 2023[5]:
La mente humana no es, como Chat GPT y sus similares, un pesado motor estadístico para la comparación de patrones, que se atiborra de cientos de terabytes de datos, y extrapola la respuesta conversacional más probable, o la respuesta más probable a una pregunta científica". Por el contrario... la mente humana es un sistema sorprendentemente eficiente, y elegante, que opera con una cantidad limitada de información. No trata de lesionar correlaciones sin editar a partir de datos, pero trata de crear explicaciones. [... ]
Dejemos de llamarlo "Inteligencia Artificial" y llamémoslo por lo que es: "software de plagio. "No crea nada, copia obras existentes de artistas existentes y lo altera lo suficiente para escapar de las leyes que protegen los derechos de autor.
Es el mayor robo de propiedades desde que los colonos europeos llegaron a tierras nativas americanas. "
No obstante, y recordando una sentencia, o pensamiento, del filósofo catalán Jaume Balmes: “Un genio es una fábrica, un erudito un almacén”, bien podríamos, por el momento, considerar a los sistemas de Inteligencia Artificial como: “Sistemas Eruditos Conversacionales”, ahorrándonos así, muchos miedos y vaticinios catastróficos.
Los sistemas AGI, pueden y podrán, mediante sensores de todo tipo, “percibir”; proceso cognitivo basado en captar o recibir información a través de los sentidos (vista, oído, olfato, gusto, tacto) y procesarla sistemáticamente, pero parece muy improbable que puedan llegar a “sentir”. Los humanos además de percibir, también somos capaces de sentir (tener sensaciones), experimentar reacciones internas subjetivas a las percepciones que nos producen los sentidos. Los sentimientos son propios de algunos animales, especialmente de los llamados racionales. Difícilmente un sistema AGI podrá tener la sensación de añoranza, de dolor por la pérdida de un ser querido, de alegría y gozo, de tristeza, miedo, deseo, o curiosidad (uno de los indicadores de la inteligencia humana), …, porque “para poder sentir, antes hay que tener consciencia de ser”.
La Inteligencia Artificial seguirá perfeccionándose como herramienta muy útil en todos los campos de la actividad humana, incluso, en algunos, puede devenir imprescindible, la cuestión será: ¿En qué procesos, o actividades, podrá tomar decisiones autónomas?, por el momento la respuesta es bien simple; en todos aquellos procedimientos cuyos procesos de desarrollo, aunque complejos, estén perfectamente definidos y acotados, como puede ser, la conducción de un automóvil, o servir copas en un bar, en estos casos, la IA podrá ejecutarlos tomando las decisiones necesarias para su realización. Para actividades humanas que, por su amplitud, no están perfectamente definidas ni acotadas, como pueden ser: diagnósticos médicos, actividades jurídicas, educación, creatividad, relaciones sociales, etc. su papel tendrá que limitarse al de un valioso asistente, porqué “aquello que puede ser técnicamente impecable, no tiene porqué ser humanamente correcto”. [1] Chat: Capacidad de interactuar mediante una conversación. GPT: Generative Pre-trained Transformer, que describe el tipo de modelo de inteligencia artificial. "Generative" significa que puede generar texto, "Pre-trained" indica que ha sido entrenado previamente con grandes cantidades de datos, y "Transformer" es el tipo de arquitectura que utiliza para procesar el lenguaje. [2] Unacceptable": Google CEO Sundar Pichai on Gemini's 'woke' and offensive outputs. ttps://mspoweruser.com/unacceptable-google-ceo-sundar-pichai-on-geminis-woke-and-offensive-outputs/ [3] Profiles of the future; an inquiry into the limits of the posible. Clarke, Arthur C. Publication date 1973. New York, Harper & Row. Collection: internetarchivebooks. https://revistaliterariaelcandelabro.blog/2023/11/desafiando-lo-imposible-las-leyes-de-clarke-y-la-frontera-de-la-ciencia/ [4] Investigadores españoles ponen en duda la capacidad de razonamiento de las IA más poderosas. Cultura Digital. 20 de febrero de 2025. https://es.wired.com/articulos/investigadores-espanoles-ponen-en-duda-la-capacidad-de-razonamiento-de-las-ia-mas-poderosas. elpais.com/tecnologia/2025-02-20/investigadores-espanoles-descubren-el-truco-que-usan-las-ia-para-sacar-tan-buenas-notas-es-verdadera-kriptonita.html [5] Noam Chomsky, New York Times - 8 de marzo de 2023. https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html
|