Cómo funcionan los procesadores actuales y por qué la Ley de Moore ya no se cumple

primer plano de una unidad central de procesamiento (CPU) en una placa base.
primer plano de una unidad central de procesamiento (CPU) en una placa base.Shutterstock

La Ley de Moore, que prometía duplicar transistores cada dos años, enfrenta su ocaso. A medida que la física y los costos desafían esa noción, la industria redefine su camino, combinando innovación y especialización para abordar un futuro incierto en la computación.

Durante décadas, el progreso de la informática se explicó con una frase simple: cada dos años se duplicará el número de transistores en un chip. Esa predicción, formulada por Gordon Moore en 1965, se convirtió en brújula tecnológica, guía de inversión y argumento de marketing. Hoy, sin embargo, la industria admite algo que hace años parecía herejía: la Ley de Moore se está frenando, y en algunos aspectos clave ya no se cumple.

Al mismo tiempo, los procesadores siguen siendo cada vez más potentes, aunque ya no solo a base de “hacerlos más pequeños”. Para entender qué ha cambiado, hay que mirar dentro del chip.

El cerebro de silicio: qué hace realmente un procesador

Un procesador moderno —sea de un portátil, un móvil o un centro de datos— es, en esencia, una máquina muy rápida para ejecutar instrucciones simples: sumar, restar, mover datos, comparar valores, tomar decisiones.

En cada ciclo de reloj, el procesador repite una secuencia básica:

Todos los beneficios, en un solo lugar Descubrí donde te conviene comprar hoy

  1. Busca la siguiente instrucción en la memoria (fase de fetch).
  2. La decodifica: traduce la instrucción a señales internas (fase de decode).
  3. La ejecuta: realiza la operación, por ejemplo, una suma (fase de execute).
  4. Escribe el resultado en un registro o en memoria (fase de writeback).

Si hiciera esto de manera estrictamente secuencial, a la velocidad de una instrucción por ciclo, ya sería impresionante. Pero los procesadores actuales hace tiempo que dejaron atrás esa simplicidad.

Tubos de montaje en cadena: la canalización y la ejecución paralela

Para ganar rendimiento, los diseñadores de chips adoptaron conceptos de la industria manufacturera: una línea de montaje.

En lugar de completar una instrucción entera antes de empezar la siguiente, las unidades internas del procesador se dividen en etapas (búsqueda, decodificación, ejecución, etcétera).

Varias instrucciones se “encadenan” en este pipeline: mientras una instrucción se está decodificando, otra se está ejecutando y una tercera escribe su resultado.

A esto se sumó otro paso: la ejecución superscalar. Un procesador moderno puede disponer de varias unidades de ejecución en paralelo (para enteros, para operaciones en coma flotante, para vectores).

En la práctica, esto significa que puede procesar varias instrucciones a la vez, siempre que no dependan directamente unas de otras.

El resultado es que los procesadores actuales no solo son rápidos porque su reloj funciona a varios gigahercios, sino porque aprovechan cada ciclo al máximo multiplexando trabajo.

Adivinar el futuro: predicción de saltos y ejecución fuera de orden

Uno de los mayores cuellos de botella internos está en las decisiones lógicas: instrucciones del tipo “si X, entonces haz Y; si no, haz Z”. Cada vez que el programa se bifurca, el procesador debe decidir qué camino seguir.

Para no quedarse esperando, usa predicción de saltos: intenta anticipar qué hará el programa basándose en su comportamiento pasado y en heurísticas internas. Si acierta, la ejecución continúa sin freno. Si se equivoca, desecha el trabajo hecho en esa rama y retrocede, con un coste en rendimiento.

A esto se suma la ejecución fuera de orden (out-of-order execution): el procesador reordena internamente las instrucciones para ejecutar antes las que no dependen de resultados anteriores, en lugar de seguir estrictamente el orden del programa. Desde fuera, el orden de los resultados se mantiene coherente, pero por dentro el chip reorganiza el trabajo para no perder ciclos.

Estas técnicas, desarrolladas y refinadas desde los años 90, son una de las razones por las que un procesador moderno puede ejecutar cientos de instrucciones lógicas por cada ciclo efectivo de reloj, pero también son cada vez más complejas y costosas de mejorar.

La memoria, el verdadero cuello de botella

Otro componente clave es la memoria. Acceder a la RAM es lento comparado con la velocidad de la CPU. Para mitigar esto, los procesadores integran varios niveles de caché: pequeñas memorias ultrarrápidas muy próximas a los núcleos.

  • La caché L1 es la más rápida y pequeña, pegada a cada núcleo.
  • La L2 y la L3 son mayores, un poco más lentas, y a menudo compartidas.

Buena parte de la “inteligencia” del chip está en gestionar qué datos traer, qué datos conservar y cuáles desechar. Si los datos que el procesador necesita ya están en caché (un acierto o cache hit), el trabajo fluye. Si no lo están (cache miss), hay que esperar a la memoria principal, y el rendimiento se resiente.

Mejorar las cachés —hacerlas más grandes, más rápidas, con mayor ancho de banda— ha sido otra vía clave para aumentar el rendimiento sin subir la frecuencia del reloj.

De la carrera de la frecuencia a la era multinúcleo

Hasta principios de los años 2000, el avance se percibía sobre todo como un aumento de la frecuencia: de cientos de megahercios a varios gigahercios. La idea era sencilla: más ciclos por segundo, más trabajo realizado.

Ese enfoque chocó contra un límite físico conocido como el muro térmico. Subir la frecuencia implica aumentar el voltaje y, con ello, el consumo y el calor. Llegó un punto en que disparar la frecuencia unos cientos de megahercios suponía superar los límites razonables de disipación en un chip comercial.

En paralelo, se agotaba otra de las bases teóricas de la Ley de Moore: la escalabilidad de Dennard, que establecía que al reducir el tamaño de los transistores también se reducía proporcionalmente su consumo, manteniendo constante la densidad de energía.

Al adentrarse en escalas de decenas de nanómetros, esa proporcionalidad se rompió: las fugas de corriente y otros efectos cuánticos empezaron a hacer que los transistores consumieran más de lo esperado.

La respuesta de la industria fue cambiar de estrategia: en lugar de hacer un núcleo cada vez más rápido, poner más núcleos. Así nacieron los procesadores de doble, cuádruple, ocho, dieciséis o más núcleos, tanto en servidores como en dispositivos de consumo.

Esta transición desplazó parte del problema hacia el software: para aprovechar múltiples núcleos, los programas deben estar diseñados para trabajar en paralelo, algo que no siempre es sencillo.

Qué decía realmente la Ley de Moore

La formulación original de Gordon Moore no era una ley física, sino una observación empírica: el número de componentes (transistores) en un circuito integrado de coste mínimo se duplicaría aproximadamente cada año.

Más tarde se reformuló a cada 18–24 meses, y la industria la adoptó como objetivo.

Durante décadas, tres factores hicieron posible cumplirla:

  • Litografía más fina: se reducían las dimensiones de los transistores.
  • Obras de ingeniería en materiales: nuevos dieléctricos, silicio tensado, puertas metálicas.
  • Escala económica: inversiones masivas en fábricas justificadas por un mercado en expansión constante.

Cumplir la Ley de Moore implicaba no solo más transistores, sino también abaratar el coste por transistor. Y ese es uno de los puntos que se ha roto con más claridad en los últimos años.

Donde la Ley de Moore se rompe: física, dinero y complejidad

Hoy la industria sigue aumentando el número de transistores por chip, pero más lentamente y con matices importantes. Existen varios frentes de presión:

1. Límites físicos y cuánticos. Las dimensiones de los transistores en la vanguardia tecnológica —nodos como 5 nm, 3 nm y futuros 2 nm— ya se mueven en escalas donde los efectos cuánticos, como el túnel cuántico, dejan de ser secundarios. Mantener el control sobre las corrientes de fuga y garantizar que un “0” lógico no se convierta en un “1” por azar quántico se vuelve cada vez más difícil.

Los fabricantes han respondido cambiando la arquitectura de los transistores —pasando de los planos a los FinFET y, próximamente, a los GAAFET (nanosheets)—, pero cada salto implica ingentes inversiones y complejidad de diseño.

2. Costes de fabricación desbordados. Cada nueva generación de litografía exige equipos más sofisticados. La llegada de la litografía ultravioleta extrema (EUV), necesaria para los nodos más avanzados, ha disparado el coste de una planta de fabricación de chips de vanguardia a cifras que superan con facilidad los 15.000 o 20.000 millones de dólares.

Como consecuencia:

  • El número de empresas capaces de fabricar en los nodos más avanzados se ha reducido a un puñado (TSMC, Samsung, Intel).
  • El coste por transistor deja de bajar al ritmo histórico, e incluso puede aumentar en algunos casos.

Varios analistas del sector consideran que, en términos económicos, la Ley de Moore ya no se cumple desde mediados de la década de 2010.

3. Rendimientos decrecientes. Cada escalón en la miniaturización ofrece ahora ganancias más modestas en rendimiento y consumo, a cambio de un esfuerzo técnico y financiero desproporcionado. Pasar de 28 nm a 14 nm supuso un salto importante; pasar de 7 nm a 5 nm o de 5 nm a 3 nm ofrece beneficios, pero no del mismo orden.

Además, muchas aplicaciones no se benefician linealmente de tener más transistores: el cuello de botella puede estar en la memoria, el software o las comunicaciones con otros sistemas.

Si no es Moore, ¿entonces qué? Nuevas estrategias de diseño

Ante la ralentización de la Ley de Moore “clásica”, la industria está buscando potencia por otras vías.

Especialización: de la CPU generalista a los aceleradores. La CPU ya no es la única protagonista. Para tareas como el aprendizaje automático, el procesamiento gráfico o el cifrado, se usan cada vez más aceleradores especializados:

  • GPUs para gráficos y cómputo paralelo.
  • TPUs y NPUs para inteligencia artificial.
  • ASICs específicos para centros de datos, redes o criptografía.

La idea es simple: en lugar de un procesador universal intentando hacerlo todo, varios chips especializados hacen mejor, y con menos consumo, tareas concretas.

Arquitecturas heterogéneas: núcleos grandes y pequeños. En celulares y, cada vez más, en computadoras personales, se impone el diseño de núcleos heterogéneos: núcleos de alto rendimiento combinados con núcleos de alta eficiencia.

Este enfoque, popularizado en el mundo ARM y adoptado también en arquitecturas x86 recientes, busca equilibrar potencia y consumo según las necesidades del momento.

Chiplets y 3D: crecer en volumen, no solo en superficie. Cuando hacer un chip monolítico gigante es demasiado caro o poco fiable, una alternativa es dividirlo en chiplets: varios dados más pequeños interconectados dentro de un mismo encapsulado.

AMD, Intel y otras compañías están apostando por este enfoque para servidores y equipos de alto rendimiento.

En paralelo, avanza el apilamiento 3D: colocar memorias o incluso capas lógicas una encima de otra, reduciendo las distancias internas y mejorando el ancho de banda. Tecnologías como HBM (High Bandwidth Memory) y empaquetados 2.5D y 3D son ya realidad en productos comerciales.

¿Está “muerta” la Ley de Moore?

La respuesta depende de cómo se defina:

  • Si se entiende como “el número de transistores por chip se duplica cada dos años”, aún hay una cierta continuidad, aunque con una cadencia más laxa y muchos matices.
  • Si se entiende como “el coste por transistor se reduce a la mitad cada dos años”, esa parte lleva años resquebrajada.
  • Si se interpreta como “el rendimiento de la informática crece exponencialmente de forma sostenida”, la situación es mucho más compleja y depende tanto del hardware como del software y de la arquitectura de sistemas.

En la práctica, muchos expertos hablan de una “Ley de Moore efectiva” que se ha desplazado desde la simple miniaturización hacia la combinación de varias palancas: nuevos materiales, empaquetados 3D, arquitecturas heterogéneas, software más eficiente y especialización del hardware.

El futuro de los procesadores más allá de la miniaturización

De cara a las próximas décadas, la industria explora varios caminos paralelos:

  • Nuevos materiales más allá del silicio tradicional, como compuestos III-V o grafeno, aunque aún sin aplicaciones masivas.
  • Computación neuromórfica e inspirada en el cerebro para determinadas tareas.
  • Computación cuántica, todavía en fases muy tempranas pero con potencial en nichos específicos.
  • Optimización algorítmica: reducir el trabajo que hace falta, en lugar de aumentar sin límite la potencia de cálculo.

Mientras tanto, los procesadores “clásicos” seguirán evolucionando, pero su progreso dependerá menos de doblar transistores en un mismo trozo de silicio y más de cómo se organizan, se conectan y se aprovechan esos transistores.

La era en la que bastaba con confiar en la Ley de Moore para planificar el futuro parece haber terminado. En su lugar, llega un panorama más diverso y menos predecible, donde la ingeniería de chips se entrelaza con la economía global, la física cuántica y las necesidades concretas de cada aplicación. Los procesadores ya no crecen solo por hacerse más pequeños; ahora, sobre todo, se hacen más inteligentes.