Las computadoras portátiles, móviles y tabletas se vuelven más baratas, elegantes y potentes cada año, mientras que la duración de la batería sigue aumentando. ¿Alguna vez te has preguntado por qué es así y si los dispositivos pueden seguir mejorando para siempre?
La respuesta a la primera pregunta se explica por tres leyes descubiertas por los investigadores, conocidas como Ley de Moore, Escala de Dennard y Ley de Koomey. Siga leyendo para comprender el impacto de estas leyes en la informática y adónde podrían llevarnos en el futuro.
¿Qué es la ley de Moore?
Si eres un lector habitual de MakeUseOf, posiblemente conozcas la mítica Ley de Moore.
El CEO y cofundador de Intel, Gordon Moore, lo presentó por primera vez en 1965.
Predijo que la cantidad de transistores en un chip se duplicaría aproximadamente cada dos años y sería entre un 20 y un 30 por ciento más barata de fabricar anualmente. El primer procesador de Intel se lanzó en 1971 con 2250 transistores y un área de 12 mm
2. Las CPU actuales contienen cientos de millones de transistores por milímetro cuadrado.Si bien comenzó como una predicción, la industria también adoptó la Ley de Moore como hoja de ruta. Durante cinco décadas, la previsibilidad de la ley permitió a las empresas formular estrategias de largo plazo, sabiendo que, incluso si sus diseños fueran imposibles en la etapa de planificación, la Ley de Moore entregaría los productos en el momento adecuado. momento.
Esto tuvo un efecto dominó en muchas áreas, desde los gráficos en constante mejora de los juegos hasta la cantidad cada vez mayor de megapíxeles en las cámaras digitales.
Sin embargo, la ley tiene una vida útil y la tasa de progreso se está desacelerando. Aunque los fabricantes de chips continúan encontrar nuevas formas de sortear los límites de los chips de silicioEl propio Moore cree que ya no funcionará a finales de esta década. Pero no será la primera ley de la tecnología en desaparecer.
La Ley de Moore ha dictado el ritmo del desarrollo tecnológico durante décadas. Pero, ¿qué sucede cuando se alcanzan sus límites físicos?
¿Qué fue de Dennard Scaling?
En 1974, el investigador de IBM, Robert Dennard, observó que, a medida que los transistores se encogen, su uso de energía sigue siendo proporcional a su área.
La escala de Dennard, como se conoció, significó que el área del transistor se redujo en un 50 por ciento cada 18 meses, lo que llevó a un aumento de la velocidad del reloj del 40 por ciento, pero con el mismo nivel de consumo de energía.
En otras palabras, la cantidad de cálculos por vatio aumentaría a un ritmo exponencial pero confiable, y los transistores serían más rápidos, más baratos y consumirían menos energía.
En la era del escalado de Dennard, la mejora del rendimiento solía ser un proceso predecible para los fabricantes de chips. Simplemente agregaron más transistores a las CPU y aumentaron las frecuencias de reloj.
Esto también fue fácil de entender para el consumidor: un procesador que funcionaba a 3,0 GHz era más rápido que uno que funcionaba a 2,0 GHz, y los procesadores se volvían más rápidos. De hecho, la hoja de ruta de tecnología internacional para semiconductores (ITRS), una vez pronosticada, alcanzaría la frecuencia de reloj 12 GHz para 2013!
Sin embargo, hoy en día, los mejores procesadores del mercado tienen una frecuencia base de solo 4,1 GHz. ¿Qué sucedió?
El fin de la escala de Dennard
Las velocidades de reloj se estancaron en el barro alrededor de 2004 cuando las reducciones en el uso de energía dejaron de seguir el ritmo de la tasa de contracción de los transistores.
Los transistores se volvieron demasiado pequeños y la corriente eléctrica comenzó a escaparse, lo que provocó sobrecalentamiento y altas temperaturas, lo que provocó errores y daños en el equipo. Esa es una de las razones por qué su chip de computadora tiene un disipador de calor. Dennard Scaling había alcanzado los límites dictados por las leyes de la física.
Más núcleos, más problemas
Con clientes e industrias enteras acostumbradas a las continuas mejoras de velocidad, los fabricantes de chips necesitaban una solución. Entonces, comenzaron a agregar núcleos a los procesadores como una forma de seguir aumentando el rendimiento.
Sin embargo, los núcleos múltiples no son tan efectivos como simplemente aumentar la velocidad del reloj en unidades de un solo núcleo. La mayoría del software no puede aprovechar el multiprocesamiento. El almacenamiento en caché de la memoria y el consumo de energía son cuellos de botella adicionales.
El paso a chips multinúcleo también anunció la llegada del silicio oscuro.
La edad oscura del silicio
Pronto se hizo evidente que si se usan demasiados núcleos simultáneamente, la corriente eléctrica puede filtrarse, resucitando el problema de sobrecalentamiento que mató a Dennard al escalar en chips de un solo núcleo.
El resultado son procesadores multinúcleo que no pueden utilizar todos sus núcleos a la vez. Cuantos más núcleos agregue, más transistores de un chip tendrán que apagarse o ralentizarse, en un proceso conocido como "silicio oscuro".
Entonces, aunque la Ley de Moore continúa permitiendo que quepan más transistores en un chip, el silicio oscuro está devorando el espacio de la CPU. Por lo tanto, agregar más núcleos no tiene sentido, ya que no puede usarlos todos al mismo tiempo.
Sostener la ley de Moore usando múltiples núcleos parece ser un callejón sin salida.
Cómo podría continuar la ley de Moore
Un remedio es mejorar el multiprocesamiento del software. Java, C ++ y otros lenguajes diseñados para núcleos únicos darán paso a otros como Go, que funcionan mejor al mismo tiempo.
Otra opción es aumentar el uso de arreglos de puertas programables en campo (FPGA), un tipo de procesador personalizable que se puede reconfigurar para tareas específicas después de la compra. Por ejemplo, un cliente podría optimizar una FPGA para manejar video mientras o podría adaptarse especialmente para ejecutar aplicaciones de inteligencia artificial.
La construcción de transistores con diferentes materiales, como el grafeno, es otra área que se está investigando para extraer más vida de la predicción de Moore. Y, en el futuro, la computación cuántica puede cambiar el juego por completo.
El futuro pertenece a la ley de Koomey
En 2011, el profesor Jonathan Koomey demostró que la eficiencia energética de salida máxima (la eficiencia de un procesador que funciona a la máxima velocidad) se hace eco de la trayectoria de la potencia de procesamiento descrita por la Ley de Moore.
La Ley de Koomey observó que, desde las bestias de los tubos de vacío de la década de 1940 hasta las computadoras portátiles de la década de 1990, los cálculos por julio de energía se habían duplicado de manera confiable cada 1,57 años. En otras palabras, la batería utilizada por una determinada tarea se redujo a la mitad cada 19 meses, lo que provocó que la energía necesaria para un cálculo específico se redujera en un factor de 100 cada década.
Si bien la ley de Moore y el escalado de Dennard fueron muy importantes en un mundo de computadoras de escritorio y portátiles, la forma en que usamos procesadores ha cambiado tanto que la eficiencia energética prometida por la Ley de Koomey es probablemente más relevante para usted.
Es probable que su vida informática se divida entre muchos dispositivos: computadoras portátiles, móviles, tabletas y dispositivos diversos. En esta era de proliferar la informática, la duración de la batería y el rendimiento por vatio se están volviendo más importantes que exprimir más GHz de nuestros procesadores de muchos núcleos.
Del mismo modo, con una mayor parte de nuestro procesamiento subcontratado a centros de datos masivos de computación en la nube, las implicaciones del costo energético de la Ley de Koomey son de gran interés para los gigantes tecnológicos.
Sin embargo, desde 2000, la duplicación de la eficiencia energética en toda la industria descrita por la Ley de Koomey se ha desacelerado debido al final de la escala de Dennard y la desaceleración de la Ley de Moore. La ley de Koomey cumple ahora cada 2,6 años y, en el transcurso de una década, la eficiencia energética aumenta en un factor de solo 16, en lugar de 100.
Puede ser prematuro decir que la Ley de Koomey ya está siguiendo a Dennard y Moore hasta el ocaso. En 2020, AMD informó que la eficiencia energética de su procesador AMD Ryzen 7 4800H aumentó en un factor de 31.7 en comparación con sus CPU de 2014, lo que le da a la Ley de Koomey un impulso sustancial y oportuno.
Relacionado: El nuevo chip M1 de Apple cambia las reglas del juego: todo lo que necesita saber
Redefiniendo la eficiencia para extender la ley de Koomey
La eficiencia energética de salida máxima es solo una forma de evaluar la eficiencia informática y una que ahora puede estar desactualizada.
Esta métrica tuvo más sentido en las últimas décadas, cuando las computadoras eran recursos escasos y costosos que tendían a ser llevados al límite por los usuarios y las aplicaciones.
Ahora, la mayoría de los procesadores funcionan al máximo rendimiento durante una pequeña parte de sus vidas, cuando ejecutan un videojuego, por ejemplo. Otras tareas, como revisar mensajes o navegar por la web, requieren mucha menos energía. Como tal, la eficiencia energética promedio se está convirtiendo en el centro de atención.
Koomey ha calculado esta "eficiencia de uso típico" dividiendo el número de operaciones realizadas por año por la energía total utilizada y argumenta que debería reemplazar el estándar de "eficiencia de uso máximo" utilizado en su formulación.
Aunque el análisis aún no se ha publicado, entre 2008 y 2020, se espera que la eficiencia de uso típico tenga se duplicó cada 1,5 años aproximadamente, lo que devolvió la ley de Koomey a la tasa óptima observada cuando la ley de Moore estaba en su principal.
Una implicación de la Ley de Koomey es que los dispositivos seguirán reduciendo su tamaño y consumirán menos energía. Los procesadores que se encogen, pero siguen siendo de alta velocidad, pronto pueden tener tan poca energía que podrán dibujar su energía directamente del medio ambiente, como el calor de fondo, la luz, el movimiento y otros fuentes.
Estos dispositivos de procesamiento ubicuos tienen el potencial de marcar el comienzo de la verdadera era del Internet de las cosas (IoT) y hacer que su teléfono inteligente parezca tan anticuado como los gigantes con tubos de vacío de la década de 1940.
Sin embargo, a medida que los científicos e ingenieros descubren e implementan más y más técnicas nuevas para optimizar la "eficiencia de uso típico", esa parte del uso total de energía de una computadora es probable que disminuya tanto que en los niveles de uso típico, solo la salida máxima será lo suficientemente significativa como para la medida.
El uso de la producción máxima se convertirá una vez más en el criterio para el análisis de eficiencia energética. En este escenario, la ley de Koomey eventualmente encontrará las mismas leyes de la física que están frenando la ley de Moore.
Esas leyes de la física, que incluyen la segunda ley de la termodinámica, significan que la Ley de Koomey terminará alrededor de 2048.
La computación cuántica lo cambiará todo
La buena noticia es que para entonces, la computación cuántica debería estar bien desarrollada, con transistores basados en átomos individuales. lugar común, y una nueva generación de investigadores tendrá que descubrir un conjunto de leyes completamente diferente para predecir el futuro de informática.
Si está construyendo una PC para juegos y está dividido entre las CPU AMD e Intel, es hora de aprender qué procesador es mejor para su plataforma de juegos.
- Tecnología explicada
- UPC
- Intel
- Procesador AMD
- Ley de Moore
Joe McCrossan es un escritor independiente, solucionador de problemas técnicos voluntario y reparador de bicicletas aficionado. Le gusta Linux, el código abierto y todo tipo de innovaciones mágicas.
Suscríbete a nuestro boletín
¡Únase a nuestro boletín de noticias para obtener consejos técnicos, reseñas, libros electrónicos gratuitos y ofertas exclusivas!
Un paso más…!
Confirme su dirección de correo electrónico en el correo electrónico que le acabamos de enviar.