Antes teníamos la ley de Moore, ahora tenemos la ‘ley de Huang’ que perfila el futuro de NVIDIA y ARM
Los límites físicos están poniendo a prueba la célebre ley de Moore, pero desde hace unos años estamos viendo un fenómeno similar en el ámbito de la computación en el campo de la inteligencia artificial.
De hecho el avance de la capacidad de proceso en este escenario ha hecho que algunos hablen ya de la “Ley de Huang” en referencia al CEO de NVIDIA, Jensen Huang. La evolución de los chips de la compañía en este ámbito es incluso mayor que la que Gordon Moore formuló de forma informal hace 55 años para los microprocesadores de propósito general.
¿Adiós, ley de Moore?
A la ley de Moore se le acaba la cuerda. Es cierto que los avances en el segmento de los microprocesadores siguen siendo notables, pero es cada vez más difícil poder respetar aquella ley que Gordon Moore en realidad formuló como una apreciación más que como una predicción fiable de lo que ocurría en el mundo de las CPUs.
Según la ley de Moore, cada dos años se duplica el número de transistores en un microprocesador. Dicha percepción acabó convirtiéndose en una ley no matemática o física, sino en esa singular predicción (e incluso reto tecnológico a lograr) que se ha ido cumpliendo en las últimas décadas.
Los procesos de producción y las litografías utilizadas en los últimos años han demostrado plantear un reto importante en este sentido, y eso ha hecho que sea poco probable que la ley de Moore vaya a durar otros 55 años.
Hola, ‘ley de Huang’
Frente a ella, no obstante, nos encontramos con la ‘Ley de Huang’, bautizada así por Christopher Mims, un editor en The Wall Street Journal que ha mostrado cómo en los últimos años la progresión de la capacidad de cálculo se ha incrementado de forma aún más notable que lo que dictaba la ley de Moore.
Los procesadores gráficos de NVIDIA han ido creciendo más y más en este segmento, y hace años que además de plantear mejoras en el rendimiento de nuestros juegos —algo que se ha vuelto a demostrar con las recientes RTX 3080— han ido integrando más y más Tensor Cores, los núcleos de proceso que permiten alcanzar capacidades de cálculo asombrosas en el ámbito del aprendizaje profundo (deep learning) y la inteligencia artificial.
Bill Daly, Chief Scientist en NVIDIA —que recientemente hasta diseñó un respirador de bajo coste para enfermos de COVID— explicaba cómo desde noviembre de 2012 y mayo de 2020 el rendimiento de estos chips en cálculos en una de las disciplinas de la inteligencia artificial se ha multiplicado por 317 veces.
Eso supone un crecimiento aún mayor en estos años de lo que marca la ley de Moore, y desde luego hace pensar en lo rápido que han avanzado diversos campos en los que se están aplicando estos sistemas, como por ejemplo el de la conducción autónoma.
Esos avances están permitiendo también el auge de la llamada ‘Edge Computing’: mientras que antes esos cálculos complejos se realizaban en un servidor en la nube que luego nos enviaba los datos, los modernos procesadores con núcleos dedicados a estas tareas ya son capaces de procesar por sí mismos esos datos y dar la respuesta “en nuestro extremo (edge)” sin necesidad de que estemos conectados a la nube.
La compra de ARM por parte de NVIDIA podría fortalecer aún más ese concepto de la ‘ley de Huang’, y de hecho el CEO de NVIDIA ya dejó claro que entre los puntos claves de la hoja de ruta de esa operación estaría el impulso del desarrollo de chips ARM en el campo de la IA.
Nuestros móviles ya cuentan con procesadores con cada vez más potencia en ese sentido. La ayuda de esos chips se nota por ejemplo en un post-procesado espectacular de las fotos que tomamos a través de la fotografía computacional, pero sus aplicaciones son cada vez más diversas y la intención de NVIDIA parece ser clara a la hora de ofrecer más y más potencia de cálculo en ese sentido en los futuros chips diseñados por ARM, tanto si se aprovechan para smartphones como si se utilizan en sensores de todo tipo.
Vía | WSJ
–
La noticia
Antes teníamos la ley de Moore, ahora tenemos la ‘ley de Huang’ que perfila el futuro de NVIDIA y ARM
fue publicada originalmente en
Xataka
por
Javier Pastor
.