Skip to main content

Actualidad

31 Octubre 2023

IA y equipos y máquinas de construcción (primera parte)

Los equipos actuales cambiarán su fisonomía en el futuro con la intervención de la IA.Estado actual de la Inteligencia Artificial.

En la tradicional analogía de la estructura orgánica de un equipo de construcción, cada uno de los avances tecnológicos incorporados representa un sistema funcional. La mecánica sería el primer nivel y equivaldría al esqueleto de la misma. La neumática, y principalmente la hidráulica, serían el segundo nivel y conformarían la musculatura. La electricidad y la electrónica son el tercer nivel y constituyen el sistema nervioso en esta analogía. Los ordenadores y la informática serían el nivel más alto –hasta ahora–, ocupando el lugar del cerebro de la máquina. Pero, por encima de todo ello siempre ha estado el operador, el hombre que decide, basándose en las instrucciones, su experiencia y su inteligencia, lo que la maquina debe hacer y la mejor manera de llevarlo a cabo. Ahora se está materializando el nuevo y previsiblemente último nivel de este apilamiento de sistemas. Se trata de la inteligencia artificial (IA), que en algunos casos se plantea como sustitutiva del propio hombre. Los primeros tanteos sobre el particular se remontan a los griegos. Aristóteles (384-322 a.C.) fue el primero en enumerar un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ctesibio de Alejandría (250 a.C.) construyó la primera máquina auto controlada, un regulador del flujo de agua que actuaba de forma racional pero sin raciocinio alguno. Más recientemente, un importante antecedente histórico a destacar lo protagoniza el español Leonardo Torres Quevedo (1852- 1936), considerado como uno de los padres de la Inteligencia Artificial y de la Automática con creaciones tales como el aritmómetro electromecánico (1919), que podría considerarse el primer ordenador mecánico, y especialmente su «ajedrecista», cuya versión final se presentó en 1923, hace ahora 100 años, una máquina que intentó imitar al ser humano de forma totalmente mecánica. Aprovechando el centenario de este gran invento de Torres Quevedo, hemos indagado en la IA y este es el estado actual de la cuestión.

Leonardo Torres Quevedo fue un visionario y el precursor de la Inteligencia Artificial (véase el artículo de Primitivo Fajardo publicado sobre él en OP MACHINERY, Su eminencia Torres Quevedo, número 64, junio-julio de 2019). Publicó en 1914 su obra Ensayos sobre Automática. Su definición. Extensión teórica de sus aplicaciones, donde estudió los robots y sus aplicaciones a la industria y construyó algunos autómatas, entre los que destacan sus dos “ajedrecistas”. En la década de los 20 fabricó otros muchos dispositivos, como el primer prototipo de ordenador con poleas, conmutadores y electroimanes; una primigenia calculadora analógica con capacidad autónoma, capaz de resolver ecuaciones de segundo grado con coeficientes complejos; el mencionado aritmómetro, precursor de la computación; la máquina de escribir Torres; un puntero telescópico para presentaciones; un dispositivo para pasar las páginas de los libros; el Telekino, germen de los mandos a distancia, del control remoto y un antecesor de los drones actuales...

Pero la historia del pensamiento artificial comienza una década después, en 1936, cuando Alan Turing diseña formalmente una máquina universal que demuestra la viabilidad de un dispositivo físico para llevar a cabo cualquier cómputo definido matemáticamente. Poco después, en 1943, Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, que se considera el primer trabajo en el campo de la inteligencia artificial, aun cuando todavía no existía el término. El primer avance trascendental ocurre poco después de la Segunda Guerra Mundial con el trabajo de Alan Turing Computing Machinery and Intelligence, que se publicó en 1950. En este trabajo, Turing se preguntaba si pueden pensar las máquinas y como consecuencia de ello propone una prueba o test para que un observador humano pueda diferenciar entre las respuestas generadas por una máquina y las aportadas por un ser humano. El famoso Test de Turing ha sido objeto de numerosas reflexiones y análisis desde su publicación y es una parte importante de la historia de la inteligencia artificial y motivo de estudio en filosofía y lingüística.

EN 1956 SE CREA LA EXPRESIÓN «INTELIGENCIA ARTIFICIAL» EN EL TRANSCURSO DE LA CONOCIDA COMO CONFERENCIA DE DARTMOUTH.

En 1956 se crea la expresión “inteligencia artificial” en el transcurso de la conocida como Conferencia de Dartmouth, donde se reunieron los padres fundadores de la disciplina, tales como Allen Newell, Herbert Simon, Marvin Minsky, Arthur Samuel y John McCarthy (quien acuñó el término). Las conclusiones de aquella reunión en Dartmouth College fueron exageradamente optimistas creyendo en una fácil y pronta culminación de los objetivos para disponer de máquinas inteligentes en no más de una década. Este entusiasmo fomentó las inversiones de entidades gubernamentales estadounidenses y británicas y se presentaron máquinas que jugaban a las damas, resolvían problemas algebraicos y lógicos y aprendían idiomas como el inglés y el ruso.

Pero las previsiones triunfalistas sobre sus posibilidades a diez años vista jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones y la paralización de las fuentes de inversión durante más de quince años, iniciándose el periodo que se ha denominado el “invierno de la inteligencia artificial”. Además de las exageradas perspectivas iniciales, entre otros motivos, la potencia computacional de aquellos años era insuficiente para sustentar desarrollos que pudieran satisfacer los enormes intereses existentes. Actualmente, aunque las expectativas siguen siendo fantasiosas, la potencia de los procesadores ha crecido notablemente y la posibilidad de que la computación cuántica entre en juego y muestre su potencial real, fundamentan en gran medida las renovadas confianzas.

ES LA PRIMERA VEZ QUE EL SER HUMANO DESARROLLA UNA TECNOLOGÍA CON POTENCIAL PARA REEMPLAZARLO.

Durante los años 1970 y 1980 se fueron desarrollando cada vez más sistemas expertos eficaces en marcos concretos, algunos de los cuales siguen vigentes. Un hito que despertó de nuevo el interés general por la inteligencia artificial ocurrió en 1997 cuando Garri Kaspárov, campeón mundial de ajedrez, perdió ante la computadora autónoma Deep Blue de IBM. Su sucesor, un superordenador llamado Watson, también de IBM, consolidó en 2011 la hegemonía de los computadores frente a los humanos en juegos complejos como el Jeopardy o el Go. La discusión sobre si fueron esas máquinas lo suficientemente inteligentes como para hablar de inteligencia artificial sigue estando abierta ya que esos logros específicos son muy distintos de los que se busca alcanzar a largo plazo en esta disciplina. El potencial, amplitud y complicación de la inteligencia artificial son enormes y las derivaciones y complejidad de sus extensas consecuencias son realmente difíciles de analizar y prever.

¿Hombre o máquina?
Se afirma que la inteligencia artificial no tiene como finalidad reemplazar a los humanos, sino mejorar las capacidades y resultados de sus actividades. Sin embargo, es la primera vez que el hombre inicia el desarrollo de una tecnología que realmente tiene el potencial para reemplazarlo por completo en todos los aspectos, incluyendo la faceta intelectual. Una primera consecuencia de ello es que las inteligencias artificiales se posicionarán por encima del propio ser humano en la toma de decisiones en la cadena de mando cuando exista personal a su cargo, o la atribución de total independencia en la actuación y toma de decisiones en el caso de sistemas que funcionen sin presencia humana.

Los anteriores hitos en el desarrollo de las máquinas y equipos de construcción han buscado facilitar el trabajo humano, ayudarlo en la gestión de los procesos y sustituirlo en los trabajos repetitivos o en entornos hostiles y en aquellos casos en donde su sustitución ha representado una notable reducción de costes y aumento del rendimiento. Ahora, la propuesta de la inteligencia artificial plantea potencialmente la eliminación del hombre prescindiendo por completo de él, desde los aspectos creativos y de diseño hasta, por supuesto, los procesos y trabajos materiales de construcción; en todo caso, delegando en los humanos tareas de supervisión, verificación y situaciones de alarma, todo ello supeditado en mayor o menor medida al visto bueno de las inteligencias artificiales responsables de los proyectos.

REDUCCIÓN DE COSTES Y AUMENTO DE PRODUCTIVIDAD: PRINCIPIOS SACROSANTOS DE LA ACTIVIDAD EMPRESARIAL.

Es previsible que incluso las empresas aseguradoras y financieras den su apoyo o fomenten los proyectos generados o sustentados por inteligencia artificial, así como a los trabajos ejecutados bajo su control, pues la responsabilidad civil se verá notablemente disminuida, ya que en último extremo no habrá casi nadie a quien echar la culpa, con las consiguientes diluciones de responsabilidades en general.

Reducción de costes y aumento de la productividad han sido fundamentales a lo largo de la historia de la ingeniería de las máquinas y equipos de construcción y también de las empresas y fabricantes implicados en el sector. Estos dos principios son los dos mantras sacrosantos que se aplican indiscriminadamente desde hace tiempo en la actividad industrial humana, aunque a veces ni las formas ni los resultados hayan sido los más recomendables. Como es obvio, serán también claves en la introducción de la inteligencia artificial, cuya llegada e implantación progresiva es algo inevitable y de consecuencias imprevistas.

La inteligencia artificial ha sido un elemento recurrente en la ciencia ficción. No es el lugar para extenderse sobre el particular, pero en la mayoría de las obras hablar de inteligencia artificial es hablar del malo de la película, destinado a sobrepasar a su creador y destruirlo. Literariamente, es un argumento muy potente y con gran fuerza dramática, ya que juega con el tema universal de la superación del maestro por parte de su alumno en aspectos como el poder y el conocimiento.

Definir inteligencia artificial
Lo primero que debemos aclarar, aunque sea simplificadamente, es lo que se entiende por inteligencia artificial. Para ello, hay que definir la inteligencia, algo no tan sencillo. Una buena propuesta puede ser aquella de Robert Sternberg que afirma que la inteligencia es la capacidad de comprender las circunstancias del entorno y adaptarse a ello, pero también ser capaz de modificarlo en beneficio propio y según las necesidades.

Por su parte, la definición de inteligencia artificial aportada por John McCarthy, Marvin Minsky y Claude Shannon en 1956 fue “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”. Alan Turing hablaba de “sistemas que actúan como los humanos”, pero realmente su trabajo esquivó una respuesta formal y en lugar de eso diseñó una prueba para tratar de determinar si algo poseía o no inteligencia artificial, dando lugar al mencionado Test de Turing, que para muchos expertos actuales está mejorado por el Test de Winograd.

En su forma más simple, la inteligencia artificial sería una disciplina que combina la ciencia informática y los conjuntos de datos de grandes dimensiones para crear sistemas expertos con capacidad de autoaprendizaje que permitan la resolución de problemas. Esta definición incluye un concepto fundamental, el del aprendizaje del sistema para mejorar el proceso, que abarca los subcampos del aprendizaje automatizado o machine learning y el aprendizaje profundo o deep learning. Como afirmó Marvin Minsky, la denominación inteligencia artificial es un concepto maleta en el que se pueden meter una gran diversidad de aspectos.

Tipos de inteligencia artificial
Hay dos categorías de inteligencia artificial muy diferentes: la inteligencia artificial limitada, débil o estrecha, la cual es la única que existe en la actualidad y que se ocupa de realizar tareas específicas, estando dotada de capacidad de aprendizaje y mejora; y la inteligencia artificial general o fuerte, que sería una inteligencia artificial que igualaría o sobrepasaría las capacidades intelectuales humanas, consciente de sí misma, dotada de estados mentales e igualmente dotada de capacidad de autoaprendizaje y mejora.

HAY DOS TIPOS DE INTELIGENCIA ARTIFICIAL, LA IA GENERAL Y LA IA LIMITADA

La inteligencia artificial limitada es una inteligencia entrenada y enfocada a realizar tareas específicas con precisión y con resultados mejores que una persona. La inteligencia artificial limitada impulsa la totalidad de la inteligencia artificial que nos rodea hoy. Se ha preferido usar el adjetivo limitada ya que este tipo de inteligencia no tiene nada de débil; por el contrario, impulsa algunas aplicaciones muy potentes, como Siri de Apple, Alexa de Amazon, el superordenador IBM Watson, sistemas expertos específicos en el campo de la salud, traductores automáticos, motores de ajedrez, chatbots como ChatGPT, creadores de arte artificial como Midjourney, Dall-e, Leo nardo, y también la función de conducción de vehículos autónomos Tesla Autopilot.

Este tipo de sistemas son capaces de resolver problemas muy bien definidos y acotados. La inteligencia artificial limitada es la que ha provocado la verdadera explosión de esta disciplina en los últimos tiempos gracias a la mejora de distintas técnicas como el aprendizaje automatizado o aprendizaje profundo para crear sistemas expertos que lograran resolver problemas específicos, y los resultados han sido excepcionales.

Los logros alcanzados con Deep Blue o con AlphaGo son un ejemplo perfecto de inteligencia artificial limitada. Estos sistemas se dedican a resolver un problema concreto y delimitado y gracias al aprendizaje acaban realizando esas tareas mucho mejor que un ser humano.

La inteligencia artificial que tenemos hoy en día está basada en datos. Para poder generar conocimiento lo que se hace es alimentar el sistema con todo tipo de datos de un campo determinado, el sistema aprende de esos datos y extrae los patrones, llegando a ser capaz de generalizar, predecir y responder preguntas sobre ello. Debido al inmenso proceso de digitalización en el que estamos inmersos actualmente hay multitud de fuentes de datos, existiendo sensores que pueden acopiar datos de prácticamente cualquier proceso natural o industrial en el que podamos pensar, incluyendo datos personales, como viajes, historias clínicas, preferencias de visionado, preferencias de compras, etc.

En cualquier caso, esta forma de inteligencia artificial limitada no implica de ninguna manera autoconsciencia o estados mentales emocionales, aunque parezca que algunas de ellas piensan por sí mismas cuando actúan.

Inteligencia artificial general
La inteligencia artificial general es una forma teórica de inteligencia artificial en la que una máquina tendría una inteligencia igual a la de los humanos, sería consciente de sí misma, tendría estados mentales y la capacidad de resolver problemas de cualquier índole gracias a su facultad de aprender, relacionar y planificar el futuro. La superinteligencia artificial iría aún más allá superando la inteligencia y las capacidades del cerebro humano.

En teoría, un sistema informático con inteligencia de este nivel podría resolver problemas sumamente complejos, emitir juicios en situaciones inciertas e incorporar conocimientos previos a su línea de razonamiento contando con una experiencia subjetiva, comunicarse en lenguaje de nivel humano y manifestar emociones, creatividad e imaginación propias.

La inteligencia artificial general superaría sin problemas tanto el Test de Turing como el de Winograd, aunque dicho logro sería tan solo un efecto colateral y no la finalidad de ese nivel de inteligencia artificial. La clave es la consecución de la consciencia y de los estados mentales propios de una mente como la humana. La entrada en este terreno plantearía un sinfín de desafíos éticos, objeto de una animada pero todavía superflua discusión. Si se logra desarrollar esa inteligencia artificial general, habríamos alcanzado un punto de inflexión en la historia de la civilización. Uno en el que los problemas técnicocientíficos, sociales o económicos no serían un reto para esa inteligencia.

LA IA GENERAL SERÍA UN PUNTO DE INFLEXIÓN EN LA CIVILIZACIÓN HUMANA.

Un sistema informático que haya logrado una inteligencia artificial general probablemente desembocaría en una superinteligencia. La frontera con la emergencia de una superinteligencia es muy difusa y sería el paso siguiente en esta evolución automatizada. Por ello, los expertos creen que si alguna vez se llega a alcanzar este nivel de inteligencia artificial completa, se podría dar lugar a la aparición de una singularidad tecnológica, es decir, una entidad tecnológica superior que se mejoraría a sí misma constantemente, volviéndose incontrolable para los humanos y cuya existencia tendría consecuencias imprevisibles.

Hay dos corrientes de especulación al respecto. La primera cree que esa inteligencia artificial fuerte resolvería todos los problemas de la humanidad y construiría una nueva era en la que dominase el bienestar y la calidad de vida. La segunda, mucho más explotada en la ficción, afirma que la inteligencia artificial general identificaría la Humanidad con un problema a resolver, dando pie a todo tipo de futuros distópicos.

SE PERCIBE UN EXCESO DE CONFIANZA EN TORNO AL DESARROLLO DE LA IA.

En cualquier caso parece que esa inteligencia artificial general tardará aún mucho en llegar, si es que llega. Al igual que se manifestó un optimismo infundado en los orígenes de la disciplina, hoy en día se percibe un exceso de confianza en torno al desarrollo de la inteligencia artificial y sus posibilidades reales. Estamos en una nueva etapa de entusiasmo, muy mediatizado, propio del lanzamiento de cualquier nueva tecnología emergente al mercado. Pero también empiezan a asomar los primeros indicios de desilusión ante unos resultados limitados o pobres en cuanto a la inteligencia artificial general se refiere. Eso sin contar con las primeras reflexiones serias en torno a la ética de la inteligencia artificial.

Hablamos sin matices de todo tipo de chismes tecnológicos calificados de inteligentes, especialmente teléfonos móviles, pero es una absoluta falsedad. Ciertamente ofrecen multitud de nuevas funcionalidades que nos resultan muy cómodas y atrayentes y son muy eficaces a la hora de reconducir el comportamiento del usuario dentro de sus límites operativos. Asistentes virtuales como Alexa, Cortana o Siri están muy lejos de ser inteligentes, pero son muy hábiles recopilando datos e información del usuario para analizarla y aprovecharla para hacerle llegar publicidad o información comercial que pueda resultarle atractiva.

Si bien la inteligencia artificial general todavía es completamente teórica y no tiene ejemplos actuales, los trabajos de exploración para su desarrollo son muy activos. Mientras tanto, los mejores ejemplos de la inteligencia artificial general provienen de la ciencia ficción, siendo especialmente realista el caso de HAL-9000, la computadora protagonista de 2001: Odisea del espacio. De hecho, Marvin Minsky asesoró personalmente a Stanley Kubrick y a Arthur C. Clarke en la elaboración del guion.

El relato breve de Fredric Brown publicado en 1954 y titulado La Respuesta ejemplifica lo que podría suceder si se alcanzara la singularidad. En un futuro lejano se interconectan todos los ordenadores de todos los mundos colonizados (obviando minucias como los retrasos en las comunicaciones por las distancias astronómicas) para crear un único superordenador. La primera pregunta que realizan al nuevo ente es “¿existe Dios?”. La respuesta, inmediata y sin vacilación es “Sí, ahora existe un dios”. Este tipo de inteligencia artificial general es el tipo de inteligencia más o menos siniestra a la que nos tiene acostumbrados la ficción, normalmente personificada en robots que tienen pensamientos conscientes y actúan según motivos propios.

Quizá sería oportuno recordar la preclara visión de Isaac Asimov (1919- 1992) cuando enunciaba sus tres leyes fundamentales de la robótica, aparecidas por primera vez en el relato Círculo vicioso (Runaround), de 1942, y según el Buen Doctor, redactadas para proteger al ser humano de la tecnología superinteligente. Primera Ley: Un robot no puede hacer daño a un ser humano o, por su inacción, permitir que un ser humano sufra daño. Segunda Ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley. Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Computación cuántica
Si bien no es el objeto central de este ensayo, hay que mencionar aquí un nuevo tipo de computación que de alguna manera podría potenciar y dar un soporte mucho más eficaz a las inteligencias artificiales. Se trata de la computación cuántica. Actualmente no hay vías comunes de investigación debido al estado preliminar, tanto de la computación cuántica como de la inteligencia artificial, aunque se investiga acerca de algoritmos de aprendizaje que pueden ser aplicados en sistemas cuánticos.

Hoy asistimos a la materialización de procesadores cuánticos, algunos incluso en vías de ser comerciales, y al desarrollo e implantación progresiva de todo el aparato lógico y de programación necesario para extraer el potencial de estos nuevos sistemas de proceso. Los principales promotores como IBM, Intel y Microsoft ya han creado plataformas de acceso libre con documentación y software para que los interesados puedan aportar ideas y colaborar en los desarrollos lingüísticos y de codificación.

ACTUALMENTE ASISTIMOS A LA MATERIALIZACIÓN DE LOS PRIMEROS PROCESADORES CUÁNTICOS.

Para los computadores clásicos se han desarrollado algoritmos capaces de calcular casi todo lo calculable y por lo tanto hacer todas las cosas tan diversas que podemos hacer con nuestros dispositivos informatizados. Los ordenadores cuánticos presentan muchas posibilidades teóricas si bien plantean una situación nueva. En un ordenador cuántico se trabaja con conceptos, algoritmos y tecnologías completamente diferentes a los que se usan en un ordenador binario. Propiedades de la mecánica cuántica como la superposición, el entrelazamiento y la interferencia se usan en un ordenador cuántico para manejar los estados de los cúbits y recrear las operaciones necesarias para procesar algoritmos.

La teoría afirma que la computación cuántica es mucho más potente que la clásica. Se asume que cualquier conjunto de puertas lógicas tradicionales se puede construir con un conjunto de puertas cuánticas, por lo que en teoría, un ordenador cuántico puede hacer todo lo que hace uno clásico y más. Aunque existen algunos algoritmos cuánticos que ya han puesto de manifiesto la potencia real de los ordenadores cuánticos, la realidad es que aún no existen muchos algoritmos cuánticos probados, lo que limita las posibilidades reales de cálculo. También hay ordenadores cuánticos pequeños funcionales, pero con bastantes limitaciones operativas físicas y sólo capaces de trabajar con un tamaño de datos pequeño que aún los mantiene lejos del nivel actual de la computación clásica. El primer ordenador cuántico comercial fue lanzado por IBM en 2019, se denomina IBM Q System One y dispone de 20 cúbits.

Uno de los temores más extendidos es la posibilidad de que los ordenadores cuánticos acaben con la seguridad en internet basada en la encriptación de clave pública usada en contraseñas, tarjetas de pago, etc. De momento hay pocas cosas que los ordenadores cuánticos sepan hacer, pero una de ellas puede precisa mente ser esta, gracias al algoritmo de Shor cuya finalidad es factorizar números. Un ordenador clásico podría tardar millones de años en romper una clave criptográfica RSA, mientras que un ordenador cuántico adecuado podría hacerlo en minutos. De momento, las claves son demasiado grandes para que un ordenador cuántico actual pueda desencriptarlas, pero si el tamaño de los ordenadores aumenta, cosa que está sucediendo, este sistema de encriptación quedará obsoleto y por ello ya se está trabajando en nuevos algoritmos de encriptación postcuánticos.

ES POSIBLE QUE EN UNA DÉCADA EXISTAN ORDENADORES CUÁNTICOS QUE INFLUYAN EN NUESTRO DÍA A DÍA.

No parece algo inmediato la implantación masiva de los procesadores cuánticos debido a las actuales limitaciones físicas para el correcto funcionamiento de estos procesadores, entre las que destaca la necesidad de tener que operar a temperaturas ultra bajas, unas 250 veces más frío que el espacio exterior (apenas unos milikelvin por encima del cero absoluto) para ser operativos, a lo que se suma la dificultad técnica para conseguir y mantener las propiedades físicas cuánticas necesarias como el entrelazamiento cuántico para la existencia de los cúbit, o también la inmensa cantidad de memoria precisa debido al crecimiento exponencial del volumen de datos que se manejan al aumentar el número de cúbit del procesador, entre otras. Pero su desarrollo es inexorable y su potencial tan grande que sin duda llegarán a ser dispositivos muy utilizados. Pero es improbable que acaben siendo equipos de bolsillo o reemplacen a los procesadores convencionales de, por ejemplo, nuestros móviles, pero quizá no sea necesario tal cosa si la capacidad de proceso llega a ser tal que permita la existencia de centros remotos de proceso en redes de conexión a las que se conecten dispositivos clásicos portátiles, similares a los actuales móviles, que actuarían como terminales.

Según Intel, todo apunta a que como pronto podremos tener ordenadores cuánticos funcionando de un modo normal dentro de 10 a 15 años, pero es esperable ver sistemas interesantes en unos cinco años, y que en una década pueda existir ordenadores cuánticos que tengan efectos en nuestra actividad cotidiana. IBM promete que para 2033 tendrá disponible su supercomputador IBM Quantum Centric, un sistema modular híbrido cuántico comercial de 100000 cúbits. El IBM Quantun System Two con miles de cúbits y equipado con el procesador híbrido Heron, presentado a finales de 2022, será la base modular que conformará la arquitectura del nuevo Centric.

Los avances en este campo, por lo tanto, son lentos. La computación cuántica no está llamada a reemplazar a los ordenadores actuales. Todo lo contrario, la computación cuántica y la binaria o booleana están destinadas a entenderse y complementarse. Así, la computación cuántica puede verse como un recurso para acelerar ciertos algoritmos y cálculos concretos, que en computación clásica se tardaría millones de años en procesar, mientras que mediante computación cuántica se podría realizar en minutos.

Continuar (pendiente de publicar)