Este sitio puede ganar comisiones de afiliación de los enlaces en esta página. Términos de Uso.

La gran pregunta en la mente de todos desde la presentación de Apple de su próximo cambio de ARM es qué tipo de rendimiento podemos esperar que ofrezcan los nuevos chips. No es una pregunta fácil de responder en este momento, y hay cierta información errónea sobre cuáles son las diferencias entre las CPU modernas x86 y las CPU ARM en primer lugar.

No se trata de CISC vs. RISC

Algunos de los artículos en línea enmarcan esto como una batalla CISC versus RISC, pero esa es una comparación desactualizada.

La formulación “clásica” del debate x86 versus ARM se remonta a dos métodos diferentes para construir arquitecturas de conjuntos de instrucciones (ISA): CISC y RISC. Hace décadas, los diseños CISC (Complex Instruction Set Computer) como x86 se centraron en instrucciones relativamente complicadas de longitud variable que podrían codificar más de una operación. Los diseños de CPU de estilo CISC dominaron la industria cuando la memoria era extremadamente costosa, tanto en términos de costo absoluto por bit como en latencias de acceso. Los conjuntos de instrucciones complejas permitieron un código más denso y menos accesos a la memoria.

ARM, por el contrario, es un ISA RISC (computadora de conjunto de instrucciones reducidas), lo que significa que utiliza instrucciones de longitud fija que realizan cada una exactamente una operación. La computación de estilo RISC se hizo práctica en la década de 1980 cuando los costos de memoria se redujeron. Los diseños RISC ganaron a los diseños CISC porque los diseñadores de CPU se dieron cuenta de que era mejor construir arquitecturas simples a velocidades de reloj más altas que tomar el rendimiento y los golpes de potencia requeridos por la informática estilo CISC.

Sin embargo, ninguna CPU moderna x86 utiliza las instrucciones x86 internamente. En 1995, Intel presentó el Pentium Pro, el primer microprocesador x86 que tradujo las instrucciones x86 CISC a un formato interno RISC para su ejecución. Todas las CPU Intel y AMD, excepto una, diseñadas desde fines de la década de 1990, han ejecutado operaciones RISC internamente. RISC ganó la guerra CISC versus RISC. Ha terminado por décadas.

El decodificador Pentium Pro original, con dos bloques decodificadores simples y rápidos y un bloque complejo y más lento. Los diseños han evolucionado desde entonces. Imagen de Ars Technica.

La razón por la que todavía verá empresas que se refieren a esta idea, mucho después de que debería haberse retirado, es que es fácil decirle a la gente. ARM es más rápido / más eficiente (si lo es), porque es una CPU RISC, mientras que x86 es CISC. Pero no es realmente exacto. El Atom original (Bonnell, Moorestown, Saltwell) es el único chip Intel o AMD en los últimos 20 años que ejecuta instrucciones nativas x86.

Lo que la gente realmente está discutiendo, cuando discuten sobre CISC versus RISC, es si el bloque decodificador que usan las CPU x86 para convertir CISC en RISC quema suficiente energía para ser considerado una desventaja categórica contra los chips x86.

Cuando he planteado este punto con AMD e Intel en el pasado, siempre han dicho que no es cierto. El consumo de energía del decodificador, me han dicho, está en el rango del 3-5 por ciento. Eso está respaldado por una evaluación independiente. Una comparación del consumo de energía del decodificador en la era de Haswell sugirió un impacto del 3 por ciento cuando el caché L2 / L3 está estresado y no más del 10 por ciento si el decodificador es, en sí mismo, el principal cuello de botella. El consumo de energía estática de los núcleos de la CPU era casi la mitad del total. Los autores de la comparación señalan que el 10 por ciento representa una cifra inflada artificialmente según sus características de prueba.

Un documento de 2014 sobre la eficiencia de ISA también respalda el argumento de que la eficiencia de ISA es esencialmente igual al nivel del microcontrolador. En resumen, si ARM es más rápido que x86 se ha argumentado constantemente que se basa en los fundamentos del diseño de la CPU, no en ISA. Parece que no se ha realizado ningún trabajo importante sobre el tema desde que se escribieron estas comparaciones. Una defensa de tesis que encontré afirmó resultados algo diferentes, pero se basó completamente en el modelado teórico en lugar de la evaluación de hardware del mundo real.

El consumo de energía de la CPU se rige por factores como la eficiencia de sus unidades de ejecución, el consumo de energía de sus cachés, su subsistema de interconexión, sus unidades de recuperación y decodificación (cuando están presentes), etc. ISA puede afectar los parámetros de diseño de algunos de esos bloques funcionales, pero no se ha encontrado que ISA desempeñe un papel importante en el rendimiento moderno del microprocesador.

¿Puede Apple construir un chip mejor que AMD o Intel?

Los puntos de referencia de PC Mag pintan una imagen mixta. En pruebas como GeekBench 5 y GFX Bench 5 Metal, las computadoras portátiles Apple con chips Intel son superadas por el iPad Pro de Apple (y, a veces, por el iPhone 11).

En aplicaciones como WebXPRT 3, Intel sigue liderando en general. Las comparaciones de rendimiento que podemos realizar entre las plataformas son limitadas y apuntan en direcciones opuestas.

Esto implica que algunas cosas diferentes son ciertas. Primero, necesitamos mejores puntos de referencia realizados bajo algo más como condiciones iguales, lo que obviamente no sucederá hasta que los dispositivos macOS con chips Apple ARM estén disponibles para ser comparados con macOS en Intel. GeekBench no es la última palabra en cuanto al rendimiento de la CPU: antes se han formulado preguntas sobre su eficacia como prueba de CPU multiplataforma, y ​​necesitamos ver algunas comparaciones de aplicaciones en el mundo real.

Los factores que trabajan a favor de Apple incluyen las excelentes mejoras anuales de la compañía en su arquitectura de CPU y el hecho de que está dispuesta a dar este salto en primer lugar. Si Apple no creyera que podría ofrecer al menos un rendimiento competitivo, no habría razón para cambiar. El hecho de que cree que puede crear una ventaja permanente para sí mismo al hacerlo dice algo sobre la confianza de Apple en sus propios productos.

Al mismo tiempo, sin embargo, Apple no cambiará a ARM en un año, como lo hizo con los chips x86. En cambio, Apple espera terminar dentro de dos años. Una forma de leer esta decisión es verla como un reflejo del enfoque a largo plazo de Apple en los dispositivos móviles. Escalar un chip de iPhone de 3.9W en un factor de forma de computadora portátil de 15-25W es mucho más fácil que escalarlo en un zócalo de CPU de escritorio TDP de 250W con todo el desarrollo de chipset auxiliar necesario para admitir cosas como PCIe 4.0 y DDR4 / DDR5 estándar (dependiendo de la ventana de inicio )

Es posible que Apple pueda lanzar un chip portátil superior en comparación con los productos x86 de Intel, pero que las CPU de escritorio centrales más grandes con sus TDP más altos seguirán siendo una fortaleza x86 durante varios años. No creo que sea una exageración decir que este será el lanzamiento de CPU más visto desde el Ryzen de AMD en 2017.

El precio histórico y la estrategia de mercado de Apple hacen improbable que la compañía ataque el mercado masivo. Pero los OEM de PC convencionales no van a querer ver arquitecturas de conmutadores rivales y ser recompensados ​​de manera decisiva por ello mientras están atrapados con CPU AMD e Intel de segunda categoría. Alternativamente, por supuesto, es posible que Apple demuestre ganancias más débiles de lo esperado, o solo pueda mostrar impactos decisivos en escenarios artificiales. Tengo verdadera curiosidad por ver cómo se desarrolla esto.

Ahora lee: