La mirada del mendigo

13 octubre 2021

Moore is dead

Filed under: Tecnología — Nadir @ 13:50

Comentaba en privado con Don Juan algo que ya también había planteado Beamspot hace poco, y como me parece un tema interesante quería abrir la discusión. Esta entrada no es para expresar ninguna certeza, sino para plantear un gran interrogante.

Es un hecho que la Ley de Moore está muerta, ya hace años que dejó de verificarse. Recordemos: la ley de Moore vaticina que cada dos años se consigue duplicar la densidad de transistores que pueden ser tallados en una oblea de silicio. Las nuevas iteraciones, según estamos llegando a la escala atómica, cada vez cuestan mayor esfuerzo (empezando por el esfuerzo económico, que exige inversiones colosales).

Pero hay un hecho mucho más inquietante. No es sólo que los nuevos nodos se retrasen cada vez más, y de hecho las foundries hagan trampas nombrando como nuevos nodos lo que no son más que evoluciones del anterior. Desde hace tiempo la medida en nm es sólo un argumento de ventas sin correlación con ninguna dimensión en su producto. Por poner un ejemplo, es cierto que a Intel se ha atascado intentando pasar al nodo de 7nm, pero es que su nodo de 10nm tiene una densidad de transistores superior a los micros de Samsung y TSMC teóricamente de 7nm.

En cuando al nodo de 5nm, no es comparable el de Samsung con el de TSMC:

En línea discontinua, desarrollos futuros.

Pero como decía, lo más notable no es que se reduzca la velocidad de los nuevos desarrollos, sino que estos se están acercando a una nivel de miniaturización en el que empiezan a existir problemas de interferencia electrónica y más allá del cual no será posible avanzar, al menos no sin cambiar algo sustancial.

Samsung está intentando desarrollar un tipo de arquitectura con puertas lógicas apiladas en 3D, llamado GAAFET, como evolución del actual FinFET. Pero el espacio sólo tiene tres dimensiones, así que también esa vía de desarrollo tiene un tope.

¿Qué pasa cuando lleguemos a ese callejón sin salida, ese nodo 1nm con puertas por todos lados más allá del cual empieza a ser físicamente imposible avanzar? Tenemos a tres foundries compitiendo por la supremacía electrónica. Intel se ha quedado algo descolgada pero promete volver por sus fueros. Los chinos de SMIC han tirado la toalla debido a las sanciones gringas que impiden a la holandesa ASML venderle máquinas de litografía EUV, absolutamente imprescindibles para llegar a los 7nm, y pretenden centrarse en los nodos más antiguos que, de todas formas, es en lo que están fabricados la inmensa mayoría de los microprocesadores actuales. Samsung ha quedado retrasada en su salto al GAAFET en los 3nm (que pospone para 2023), mientras que TSMC también ha postergado unos meses el lanzamiento de su 3nm FinFET, antes de su paso también a los GAAFET, ya con el nodo de 2nm (lo que ellos llaman 2nm, que insisto ya es sólo un nombre comercial).

Bien, pero ¿qué pasará según vayan estas tres llegando a la barrera física? Durante un tiempo la primera en llegar disfrutará de la primacía, meses después llegará la segunda, la tercera… y con el tiempo irán llegando el resto. ¿Entonces? ¿Se convertirán los microprocesadores en una commodity más, como lo puede ser hoy en día un capacitor, que cualquier empresa con un mínimo de tecnología puede fabricar?

Aún más ¿tiene sentido invertir cantidades fabulosas de dinero para llegar a ese límite físico, para producir un procesador que mejore un 15% la potencia/eficiencia del nodo anterior? ¿A qué precio habría que vender tal procesador para rentabilizar esas inversiones para mantener la mencionada supremacía? Una supremacía que, como hemos dicho, es sólo temporal pues el resto de competidores acabará llegando más pronto que tarde.

Y, lo más importante ¿qué otros caminos se avizoran para soslayar ese límite físico? He estado leyendo sobre otros materiales más allá del silicio (desde el arseniuro de galio o el nitruro de galio, al carburo de silicio o el mismísimo diamante, todos ellos con un mayor ancho de banda), pero su finalidad es principalmente electrónica de potencia (pueden trabajar a más temperatura). ¿Se podría con esos materiales alternativos seguir avanzando en la potencia de cálculo/eficiencia? ¿Hay alguna otra vía de investigación para mantener a Moore vivo, pero con otras herramientas? Porque no creo que esto sea el final de la historia.

Me parecía un tema interesante sobre el cual debatir, ya que en los medios convencionales sólo se pueden leer chorradas.

Vuestro turno.

+

+

+

+

+

+

+

+

+

+

+

+

+

+


23 comentarios »

  1. Pues no es por fastidiar, pero ese estudio sería simplemente “teórico” si lo sacamos del entorno del peak energético en el que estamos inmersos….
    Los procesadores cuánticos podrían ser una respuesta “teórica”. Pero me temo que a nivel energético sería ir de guatemala a guatepeor. Y dada la cantidad de energía necesaria para sostener nuestra sociedad de la “información” pues me temo que no es necesario realizar este estudio. Necsita esta sociedad para carburar, al menos, procesadores (chips) y almacenamiento. El software, aunque imprescindible, no es más caro que el plato de lentejas que cobra el programador. Algunos ya lo han nombrado como peak computing y no me negaréis que encaja mejor con lo predecible que la basura que los medios nos venden como información del futuro. Os dejo un hilo del que tirar: https://www.felixmoreno.com/es/index/211_0_tecnocalipsis_y_escasez.html

    Comentario por Roberto — 13 octubre 2021 @ 14:49 | Responder

    • Pffff. Quien sólo tiene un martillo… Puta sectita, tan pesaos, monotemáticos, rallantes y ridículos como los Testículos de Jehová.

      Toma, para tu próxima intervención:

      Comentario por Nadir — 14 octubre 2021 @ 8:45 | Responder

  2. Me pareció que podía complementar (el hasta ahora inexistente) coloquio:
    https://www.gizchina.com/2021/04/16/tsmcs-20nm-process-is-performing-terribly-bad-contributes-0/

    Comentario por Nadir — 14 octubre 2021 @ 8:47 | Responder

  3. Un comentario rápido. Pero que espero que sea de provecho.

    Lo fundamental. “Moore’s Law” –> La densidad de transistores se duplicar cada 24 meses.

    Esto que los ingleses llaman “Law” Que se traduciría en Ley, como las de la física, la ley de la gravedad, etc, No es en absoluto una ley. Es, una estimación, que hizo el señor Moore cuando esto de los circuitos integrados estaba en su infancia, y que si se ha mantenido a día de hoy, es gracias a el sudor y lágrimas de uno de los grupos de personas más inteligentes del planeta, en un esfuerzo que ha durado décadas. Y esto seguirá así mientras las condiciones existan (estabilidad regional en las fabs / taiwan) , y no nos demos de bruces contra límites físicos, que aún les queda por llegar

    La densidad de transistores es importante, Una mayor cantidad de transistores permite hacer operaciones más complejas, o más operaciones sencillas a la vez.

    Pero el rendimiento de un chip no viene dado sólo por la densidad de transistores, sino también por su arquitectura. La arquitectura de un chip define cómo operan estos transistores, y como en todas las cosas que requieren de un diseño, se puede hacer de formas más o menos eficientes. El famoso “Tick Tock” de Intel, que les fue muy bien durande muchos años, se basaba exactamente en eso, tenían un ciclo “tick” donde lo que cambiaba era la arquitectura (cómo se configuraban los chips en la oblea) y un “tock” en el que se cambiaba a maquinaria de mayor densidad. Y esto les fue dando buenos resultados, que se miden en el aumento de IPC o Instructions per clock, es decir. de la cantidad de procesos que puede ejecutar un procesador a cada Herzio que pasa. Esto está relacionado con las frecuencias a las que los procesadores funcionan (3Ghz-5Ghz es el rango actual) pero la relación no es lineal, es decir, hay procesadores más lentos (menos Ghz) que dan un mayor IPC y por tanto un mayor rendimiento.

    Del mismo modo, con las arquitecturas, podemos conseguir un mejor rendimiento por vatio de energía consumido, y en esto influyen tanto las arquitecturas como el proceso (nanómetros) que se haya utilizado. Por poner un ejemplo actual, las gráficas que ha lanzado nvidia ahora mismo consumen más que nunca, especialmente en la gama alta, donde tienen que usar todo el chip. La RTX 3090 consume unos 350W, su homóloga de AMD, la 6900XT (230W) rindiendo similar en muchos workloads.

    A lo que voy. No todo son procesos, una vez lleguemos a 1nm “de verdad” que nos puede quedar una década, empezaremos a jugar con arquitecturas más eficientes, o con aceleradores específicos para ciertos workloads.

    Ahora mismo tenemos dos mercados claramente diferenciados, mercado de consumo, principalmente móviles y lo que queda de ordenadores personales, y mercado de compute, donde se está moviendo todo lo de la inteligencia artificial. Apple ha cambiado su gama de ordenadores para utilizar procesadores “in house” (Los fabrica TSMC, Apple es la que tiene más prioridad, ya está en 5nm) en sus Macs, y unificar todo en Arquitectura ARM, tradicionalmente pensada para teléfonos. En el ámbito del compute, Nvidia ahora mismo tiene de lejos las mejores ofertas, con sus plataformas de Mainframes A100 (a 100.000e la unidad, 4 perras si lo comparas con lo que gastan de luz en su vida útil) y para eso van a requerir el mejor silicio posible.

    Demanda habrá, y crecimiento habrá en el sector, especialmente ahora que con IA estamos empezando a hacer cosas impensables, léase GPT-3 y otros proyectos multimillonarios encabezados por google (Deepmind), Microsoft, IBM o los chinos.

    Mañana sigo que aquí hay mucho más de lo que hablar y esto no es más que una introducción a la jerga.

    PD: Y eso que ha dejado de verificarse.. Igual se ha ralentizado un poco, pero la cosa no parece aflojar demasiado. A cambio, eso sí, de hacer chips con mayor superficie de área. Pero si miramos IPC.. con los nuevos _branch predictors_ y otras cosas que las arquitecturas actuales nos permite, creo que nos queda Moore para rato.

    Comentario por Don Juan — 14 octubre 2021 @ 21:54 | Responder

    • Cierto, pero lo que estamos haciendo es compensar la capacidad de incrementar cantidad de transistores (y frecuencia de reloj) por complejidad.

      Según Joseph Tainter, mal camino.

      Si somos ‘estrictos’, lo de doblar la cantidad de transistores por mm2 hace ya algún tiempo que no se cumple (con las fechas previstas, cada dos años). Si lo que contamos es añadir transistores base de aumentar tamaño, pues sí, pero tenemos también ciertos límites.

      Uno de ellos, el de la relatividad de Einstein: a 1GHz (y eso ya sabemos que es poco), la electricidad recorre como 20cm en un circuito impreso, con lo que tenemos aprox 10 cm a ‘1’ y otros 10 cm a ‘0’ (aproximando mucho e idealizando. Si subes a 3GHz, la distancia de divide por tres: 33 mm por cada.

      Y eso es la distancia entre la CPU y la memoria… si no tenemos en cuenta las serpentinas que hay que hacer en el circuito impreso para que todas las señales lleguen a la vez.

      No sólo de transistores viven los límites…

      Comentario por Beamspot — 19 octubre 2021 @ 16:35 | Responder

      • Ya, pero…entonces? Estamos ante el fin de la historia? (en potencia de cálculo/ eficiencia)
        Lo dudo mucho.

        Comentario por Nadir — 20 octubre 2021 @ 15:01 | Responder

        • Viendo lo que acaba de sacar Apple en sus nuevos Chips M1 Max principalmente. No, no estamos al final de la historia todavía. Si bien es cierto que hacer planchas de cientos de mm2 no tiene mucho sentido ni es escalable para compute normal (Proyecto Cerebras si que usa chips enormes, tamaño wafer) ya se habla de 3Dstacking para acortar las distancias, y unificar CPU y GPUs en “APUs” que también acortarían la distancia a recorrer. Y aumentar Bandwith.

          La potencia de una 3080 Mobile (160W de TDP) en un SoC de 60W de TPD (Thermal Power Dissipation) que incluye también CPU, vamos, prácticamente un 400% más eficiente. En el nodo de 5nm de TSMC comparado con lo que tiene intel e Nvidia (samsung 7nm) en el mercado. Mi estimación así al aire, con las fuentes que tengo, es que intel no tiene nada similar hasta Q3 2023 minimo en el mercado que pueda competir con lo que acaban de lanzar los de la manzanita (!!!) Por primera vez en unos cuantos lustros su silicio tiene sentido y no es un “PC” con rebranding.

          Comentario por Don Juan — 20 octubre 2021 @ 16:20 | Responder

          • Entonces, ¿los nuevos progresos vendrán de la mano de la arquitectura, más que del tamaño de nodo? O dicho de otra forma, los diseñadores ganarán protagonismo en demérito de las fundiciones.

            Comentario por Nadir — 21 octubre 2021 @ 8:19 | Responder

            • Hace ya tiempo que es así. Así que sí por ahí van los tiros.

              De todas formas, aquí Trump se ha llevado parte del mérito. El tema de la escasez de chips viene de antes del Covid, fruto de las ideas de Trump al ver claramente que estaban perdiendo terreno ante los chinos… y que había que tirar hacia la capacidad interna de fabricación de chips ante la más que posible invasión de Taiwan.

              Obviamente, no se puede dejar que las capacidades armamentísticas propias estén en manos ajenas, y menos aún todo el tema esta del Índice de Crédito Social, que viene empotrado en los sistemas chinos. Y que es el último bastión para el crecimiento tanto de la electrónica como de los grandes de la comunicación y la inteligencia artificial.

              Comentario por Beamspot — 23 octubre 2021 @ 12:19 | Responder

        • Bueno… si y no.

          Todo esto siempre es asintótico, y ya nos estamos aproximando al límite, por eso se aumenta complejidad.

          Es el famoso término de ‘rendimientos decrecientes’.

          Sin embargo, la complejidad también tiene sus problemas, y su máximo. Según Tainter, llega un momento en que el aumento de complejidad produce más problemas que los que soluciona. Personalmente, en mi anterior trabajo llegué al pico de Tainter en 2016, y pude comprobar de primera mano, tal y cómo me pensaba, que no sólo era totalmente cierto, sino que la cosa iba a mal. Una razón más por la que la multinacional cerraba.

          Tenemos un ejemplo que me toca de cerca, precisamente en el campo de la supercomputación. Y demuestra esa complejidad mucho más allá del mero silicio.

          Se trata de la supercomputación reconfigurable masivamente paralela, aunque aquí la clave está en eso de ‘reconfigurable’.

          La idea era usar chips digitales de ‘circuitería rediseñable’ (algunos lo llaman de lógica programable), basadas en lo que los friquis conocemos como FPGA. Estos chismes tienen varios miles de unidades de Multiplicar Y Acumular (MAC’s en el idioma del imperio) que es la base de cálculo de cualquier CPU. Pero sin ser una CPU. Bien diseñados, pueden ejecutar miles de operaciones matemáticas en un sólo ciclo de reloj, pero hay que ‘diseñar’ su circuitería (mediante cosas como el VHDL o Verilog).

          Es la punta de lanza de la electrónica. Es el sistema que se ha usado desde hace tiempo para diseñar circuitos integrados nuevos de aplicación específica. De hecho, muchos fabricantes de FPGA’s ofrecían la posibilidad de migrar su diseño VHDL a silicio puro y duro, a un precio muy muy muy muy inferior. Obviamente, la historia es que ese circuito ASIC resultante, sólo podía hacer una cosa, mientras que las FPGA podían hacer muchas con sólo cambiar el ‘programa’.

          Así que Intel se juntó con Xilinx para desarrollar la tecnología de supercomputación reconfigurable. La idea era que una CPU principal (hoy en día hay FPGA’s integran CPU’s físicas dentro, como la familia Zynq de Xilinx, pero no es la única) cableada (no programable, como las MicroBlaze, que eran CPU’s que sólo existían en VHDL/Verilog) cargaban la ‘arquitectura del chip’ (es decir, el VHDL compilado) y luego dejaban que el HW hiciese el resto.

          La idea es que el algoritmo SW en realidad se ejecute en HW, con los ahorros inmediatos que eso conlleva. ¿Que cambias el algoritmo? Pues cambias el VHDL y listo.

          Pero eso conlleva varios problemas.

          El primero, es que el ‘compilar’ el VHDL o el Verilog es muy costoso. En la misma máquina, compilar un programa C complejo tarda segundos. Hacer lo mismo con un VHDL ‘simple’ (en comparación, por ejemplo con un VHDL para hacer FFT’s), tarda más de un cuarto de hora. Lo digo por experiencia propia. Eso implica que el debug del VHDL es complicado… y algo típico de un ahumador de circuitos como el que esto firma.

          Es la concrección hecha electrónica, física, el mundo de las señales digitales de verdad, donde los voltios cobran vida y los nanosegundos cuentan, el reino de los osciloscopios y la realidad física, mi mundo.

          Lejos del mundo de la abstracción del código, de la limpieza del SW y de las macros que llaman a la HAL (Hardware Abstraction Layer), los ‘mundos de Yuppie’ en que viven los monos picateclas de la programación.

          Encontrar a un ingeniero de HW que sea bueno con los algoritmos es como encontrar un ingeniero informático que sea bueno en HW. Una rareza. Como mezclar aceite y agua. Alguien de ciencias contra alguien de letras. Alguien del mundo real concreto (por ejemplo, un paleta) con alguien del mundo virtual de las ideas (por ejemplo, un filósofo).

          Y eso conlleva al segundo problema. El de los device tree.

          Estos chismes suelen usar Linux (porqué será, seráaaaaa?), y encima capado, pero necesitan cambiar los drivers de los periféricos con los que interactúa (ese HW rediseñable reconfigurable al que descargar buena parte del flujo de cálculo). Pero el sistema de Device Tree de Linux es lo más opaco que existe (been there, done this, lo sé de primera mano, lo he sufrido, lo estamos sufriendo en mi nuevo curro), y suele ser dónde se empantanan las cosas, ya que es el punto de unión entre la abstracción del HAL y la concrección del HW, así que hace falta alguien que domine AMBAS disciplinas.

          Además, Linux está abandonando el cambio dinámico del Device Tree, cosa que hace que las cosas sean peores, ya que básicamente la idea era ir cambiando de HW ‘on the fly’ y entonces adecuar el Device Tree de forma dinámica.

          Así resulta que las raras avis que son capaces de hacer este tipo de cosas (conozco sólo a uno de los cientos de programadores y decenas de ingenieros de HW que hacen HW de verdad) son diamantes en bruto, generalmente, personajes muy particulares a los que hay que dar de comer aparte.

          Así que esa tecnología, a pesar de ser la más capaz y eficiente, se ha abandonado, y parece ser uno de los problemas que tiene ST para impulsar su más imple STM32MP1 que usamos nosotros in house (y eso que es un procesador asimétrico, ni siquiera lleva FPGA). Fuimos tres personas metidas en el ajo durante un mes para sacar un Device Tree que funcionase con la release adecuada: el jefe de informática (una máquina que sabe programar microcontroladores a pesar de no saber mucho de HW, pero que ha sido capaz de embarrarse las manos, el segundo que conozco), el ingeniero de VHDL (programador de VHDL y de pequeños microcontroladores, pero básicamente ingeniero HW con pocos conocimientos de SW), y yo, que tengo un pie en cada lado (y encima ahora me meto en mecánica) pero como buen aprendiz de todo, maestro de nada.

          Así que cuando nos metimos en conectar una pantalla con los recursos que teníamos, no fuimos capaces de hacerlo, y tuvimos que recurrir al personaje (y gran amigo al que admiro) que es el único que conozco que se pueda meter en estos fregaos sin problemas. Evidentemente lo solucionó en su casa, en menos de una semana, sin medios, y reescribiendo el driver de SW además del Device Tree… algo que dejó impresionados al jefe de informática y al ingeniero de HW, y al jefe de I+D y al hijo del dueño… Obviamente sé a quién recomiendo para cada tarea… y no me equivoqué.

          Así pues, estamos topando cada vez con más límites, y en el fondo estamos aumentando mucho la ineficiencia.

          Un ejemplo que pongo en la cuarta entrega de las guerras COB (en el que explico esto, y que no está terminado aún) precisamente viene al caso.

          El Arduino usa un sistema de HAL para que gente sin conocimientos de HW se meta en programación ‘del hierro pelado’, que permite hacer muchas cosas. El ejemplo más básico es el de encender y apagar un LED.

          Es decir, poner a 1 y luego a 0 un pin del chisme. Básico, la A del AEIOU de la programación.

          Resulta que hacer eso usando el entorno de programación ‘programmer friendly’ de Arduino tarda como 50 ciclos de programa en hacer un ciclo completo 0 -> 1 -> 0.

          Como yo esos micros (ATmega32) los programaba en sus tiempos con los ojos cerrados (tengo sistemas que aún están en el mercado basados en la familia AVR, así como una camiseta de AVR Chip Ner 1), yo era capaz de hacerlo en C en como 5 ciclos de reloj, y en ensamblador en como 3. Pero sabiendo lo que hacía.

          Incluso hice un programa que detectaba objetos por ultrasonidos que, una vez puesto en marcha el ATXmega128, todo se hacía por HW, sin intervención del SW que se limitaba a configurar bien el integrado.

          Pero para hacer eso, hay que conocer el ‘hierro’ sobre el que corre el chisme. El mundo de lo concreto.

          Pero los amigos del teclado tienen miedo a eso, se les caen los anillos cuando se les habla de HW, a ellos les mola la abstracción. Además, las cebollas al cubo: capa sobre capa sobre capa sobre capa de SW donde para poner un pin a uno la aplicación llama a una dll, que llama al SO para obtener permiso que luego devuelve a la dll que luego devuelve a la app que luego realiza otra llamada a la dll para pedir la referencia del pin, que llama a la tía de la abuela, que luego envía una instancia al gobierno que luego hace un concurso público para contratar a una empresa de servicios tecnológicos para que haga un estudio de la viabilidad de salvar a los perros de la Palma para que subcontrate a la tiabuela de la TIA y al Superintendente que luego llama al Botones Sacarino que mediante Zipy y Zape consulta al profesor Bacterio… bla bla bla.

          Todo eso para poner un uno o un cero en un pin.

          Pues eso es lo que tenemos. Code Bloating. O una buena razón para vendernos HW que no necesitamos para hacerle la vida fácil a los programadores que a su vez dan negocio a los fabricantes de HW debido a las ‘necesidades’ de su SW.

          El problema es que hoy en día ya podemos hacer mucho con lo que tenemos y no hay necesidad real de tanta tecnología, así que hay que inventar esas necesidades.

          De ahí las Smart Cities para Dumb Cityzens y la 5G par los coches autónomos que a fecha de hoy son (y serán) un fracaso… pero la única vía para seguir financiando el desarrollo electrónico que queda.

          Fracasará, tras invertir miles de millones.

          Pero eso aún pertenece al futuro.

          En fin, mucha palabrería, lo siento (por vosotros). Mala cosa en la que gastar mi escaso tiempo libre!!!

          Saludos y mucha salud.

          Beamspot.

          Comentario por Beamspot — 23 octubre 2021 @ 12:16 | Responder

  4. La tecnología es el oro de nuestro tiempo; cada descubrimiento es como el hallazgo de un yacimiento. El problema es que a ésta le damos la misma utilidad que al oro. El oro, la plata, los diamantes… todos ellos tienen una gran utilidad para la industria, pero al ser más valorados en su uso ornamental, su precio acaba siendo prohibitivo para el aprovechamiento industrial.

    El mejor paradigma de ello son nuestros móviles de última generación. Cada uno de ellos es mucho más potente que el ordenador que llevó el Apolo 11 a la Luna. Ante esto, la pregunta es evidente: ¿realmente necesitamos para nuestro quehacer u ocio cotidiano tanta información o computación como la precisa para viajar a la Luna? ¿No nos podríamos arreglar con móviles menos potentes? Es evidente que sí, hemos pasado la mayoría de nuestra existencia haciéndolo. Pero si hiciéramos eso, tendríamos temor de que nuestras amistades se rieran de nuestro “zapatófono” y que los demás nos miraran como a un neandertal recién salido de la caverna. Al final, como en el caso del oro, tanta tecnología acaba teniendo una finalidad mayormente ostentativa.

    Ocurre también con los coches. La finalidad de éstos es desplazarse desde el punto “A” al punto “B” al abrigo de la intemperie. Pues bien, hace más de 70 años, el “dos caballos”, con sus 500 kilos de peso, lograba este objetivo con un consumo de 4 litros. Siete décadas después, hacen falta no menos de 6 litros de combustible para llevar nuestros armatostes de más de tonelada y media hasta ese mismo punto “B”. ¿Realmente precisamos tanto coche para ello? Una vez más me temo que utilizamos estos vehículos más para ostentar que para ninguna otra cosa.

    Y pongo un ejemplo; mi vecino es ganadero, todos los días tiene que ir al monte a alimentar el ganado. Tiene un gran todoterreno y una furgoneta Dacia Dokker. Dado que los caminos por ahí no están precisamente en buen estado, hasta el punto que es muy presuntuoso llamarlos “caminos”, pues alguno consiste simplemente en dos rodadas; uno supondría que utiliza el todoterreno para ir por aquellos. Pues no. Craso error. Nuestro amigo utiliza la furgoneta para surcar esos mares de piedras, polvo o barro, mientras solo usa el todoterreno (siempre impoluto) para ir a la ciudad. ¿Uso racional de la tecnología, o simple ostentación?

    Otro ejemplo de mal uso de la tecnología son los tractores. Los antiguos son tan deseados, que en el mercado de segunda mano se dan de terronazos por ellos. ¿Por qué? Pues ocurre que los nuevos tienen cada vez más electrónica, lo que, además de hacerlos carísimos, no solo tienen más averías tontas, sino que éstas solo pueden ser reparadas en el lugar autorizado so pena de perder la garantía, que a su vez está condicionada a una serie de “revisiones” también llamadas “ordeñado de carteras”. En cualquier caso es una pérdida muy importante en horas de labor. Compárese eso con aquellos viejos cacharros, más duros que un tanque, que rara vez se averiaban, y cuando lo hacían, en muchas ocasiones podía repararlo uno mismo o ir haciendo apaños hasta que acabada la temporada, pasar por el taller.

    Todo esto me lleva a pensar que la estrategia de intentar dejar a China afuera de la carrera por la miniaturización de transistores y chips puede llegar a ser peligrosa y contraproducente. Tomemos el ejemplo de los tractores. Pongamos que dificultaran a China incluir tanta electrónica en sus tractores. Y que como resultado, ésta sacara unos a la antigua usanza, más duros, fiables y sobre todo baratos. Esto podría reventar el mercado y dejar en evidencia cuáles son nuestras necesidades reales e impostadas, a distinguir lo que es utilidad y lo que únicamente es ostentación.

    Pues esto también podría ocurrir en el caso de los móviles. Al fin y al cabo la miniaturización de transistores no aporta más potencia, sino simplemente requerir menos espacio. Y la cuestión sería… ¿realmente nos compensa pagar dos, tres, y hasta cuatro veces más por un aparato un poco más delgado, más ligero o aún más potente? O al final, como siempre, no es más que pura ostentación… Y en un mundo donde los jóvenes cada vez tienen condiciones más precarias de trabajo, más dificultades de acceso a la vivienda y más incertidumbre sobre el futuro, el peligro es que acabemos dándonos cuenta de que la ostentación y el lujo son un lujo que no nos podemos permitir.

    Comentario por Varego — 15 octubre 2021 @ 8:59 | Responder

    • En mi opinión, un comentario brillante. Sólo un pero: reducir el tamaño de nodo sí que tiene un impacto sobre el rendimiento al disminuir la resistencia del conjunto (los electrones recorren una distancia menor).
      Los vehículos actuales son un caballo de Troya para transferir renta de su “propietario” al fabricante. No están al servicio del primero sino del segundo.

      Comentario por Nadir — 15 octubre 2021 @ 22:40 | Responder

    • Le ruego que me autorice a
      publicar esto en mi bitácora–verbatim.
      ¿Cómo tengo que identificar al autor?

      Comentario por Juan Manuel Grijalvo — 16 octubre 2021 @ 16:26 | Responder

    • La ostentación es la trampa, el veneno inoculado en las mentes para continuar cual hamster girando la rueda del consumo insostenible, apunto un dato: compré mi coche actual hace 4 años, audi a4 1900 tdi 110cv, “el indestructible lo llaman” de segunda mano con 300000 km por 1200 euros, actualmente tiene 460000km, he ido a trabajar durante varios años a otra comunidad y lo utilizo a diario, ademas de moverme bastante, 1200km de autonomía con un deposito, 0 averias, la mejor compra de mi vida, he utilizado la mitad de la vida útil habitual de un vehículo de 18000 euros por 1200 euros…es viejo, si, algun rayón…si…me da exactamente igual…

      La obsolescencia programada el gran mal a combatir…

      Comentario por Nico — 17 octubre 2021 @ 0:38 | Responder

      • Yo creo que la ostentación forma parte de un impulso primitivo grabado en nuestros genes: el progreso en la jerarquía social. Si la jerarquía se estructura en función de la riqueza, entonces demostrar su posesión nos hace avanzar posiciones.
        Vivimos para los demás, somos primates que tienen la necesidad psicológica de cosechar la aprobación del grupo, para sentirse primero integrados, y luego importantes dentro de él. Y hacemos cosas que objetivamente nos perjudican ( trabajar todo el día para comprarse un coche nuevo, llevar tacones altos, sacarse un selfie en un acantilado…) sólo por mejorar la percepción que el grupo tiene de nosotros.
        Buen coche. Vigila el árbol de levas. Muy buena compra, pero cada vez nos lo van a poner más difícil para intentar aprovechar la vida útil de un coche. Y lo más chusco es que lo harán en nombre de la ecología. 😛

        Comentario por Nadir — 17 octubre 2021 @ 7:33 | Responder

    • seguro q el apolo XI no tenia chrome o firefox comiendose 512 mb de ram nada mas abrirlo, jajaja, Por cierto, el Apolo no duro mucho, mientras la Soyuz tovia sigue, grande Korolev

      Comentario por Emilio Fernandez — 17 octubre 2021 @ 17:04 | Responder

      • Ahora que lo mentas: Mozilla (las decisiones estratégicas de su cúpula) cada vez están repeliéndome más. Alguna alternativa abierta con sincronización de marcadores? Pena por los addons…

        Comentario por Nadir — 17 octubre 2021 @ 20:08 | Responder

        • Yo estoy igual, han tirado al postmodernismo fuerte, si encuentras algo avisa, siempre puedes utilizar alguno basado en Chromium, que tambien es open source, sea el Chrome, el Brave, o hasta el Edge. Mismo motor de navegación.

          Comentario por Don Juan — 23 octubre 2021 @ 17:45 | Responder

  5. Un artículo muy interesante sobre por dónde van los tiros cuando el Si no dé más de sí:
    https://semiengineering.com/chasing-after-carbon-nanotube-fets/

    Comentario por Nadir — 16 octubre 2021 @ 13:26 | Responder

  6. Sin meterme en los temas de ingeniería, que desconozco, pienso que el freno lo va a poner antes el precio y la falta de demanda. Estando como estamos cada vez más empobrecidos (años de escasa inflación pero sin subida salarial), me cuesta mucho justificar un gasto de mil euros para renovar mi PC, no hablemos ya de un móvil de gama media. De momento creo que lo que tira del mercado, al menos de las gráficas, es el minado de bitcoin o similares que de momento sale rentable. A lo mejor con la IA se pueden hacer muchas cosas molonas, pero vuelvo a lo mismo, si lo que me ofrecen no me compensa lo que cuesta, no lo voy a comprar. No porque no quiera, si no porque no pueda. Yo es que debo ser raro y prefiero comer alimentos frescos antes que fardar de iPhone.

    A lo mejor tu situación es diferente, pero nosotros llevamos desde 2008 sin levantar cabeza y ya no espero que la situación mejore.

    Comentario por Abraham — 22 octubre 2021 @ 8:02 | Responder

    • Consejo, ebay vende Thinkpads de segunda mano bien baratos y eso lo que yo recomiendo a todo el mundo, por 300e tienes un ordenador de 2000e de hace 4 años, con unos acabados muy buenos (chasis de magnesio, piezas para reparar disponibles, etc)

      Comentario por Don Juan — 23 octubre 2021 @ 17:44 | Responder

      • le pones un sdd y van mejor q muchos de los nuevos mas basicos, jeje. EL unico problema que veo de los reacondicionados (refurbished que mola mas, eh Nadir¡) es la garantia. Aparte de en Ebay los hay en muchos mas sitios. Mi movil lo compre hace 2,5 años, reacondicionado gama alta 2017, 200€ (es q soy un vicioso y juego, y tb por la camara) aqui sigo dandole caña. EL mundo del reacondicionado deberia tener bastante mas espacio.
        Saludos

        Comentario por Emilio Fernandez — 25 octubre 2021 @ 7:56 | Responder

    • Ese es el camino al decrecimiento que vengo insistiendo que nos será impuesto.

      Peak Everything por destrucción de la demanda.

      Pero la población nunca ha llevado bien esto del decrecimiento. ES GENETICO, no es cosa del capitalismo (en exclusiva). Por eso, ningún sistema político va a aguantar lo que tenemos por delante. De hecho, ya mismo no lo está aguantando: Trump, Brexit, Chalecos Amarillos… todo eso son los mismos síntomas de la descomposición de nuestra civilización, que empezó hace ya más de 20 años (aunque hay zonas más adelantadas que otras).

      Legitimar el robo bajo el lema de ‘repartir la riqueza’ será todavía más contraproducente. Procusto en estado puro.

      Comentario por Beamspot — 25 octubre 2021 @ 7:22 | Responder


RSS feed for comments on this post. TrackBack URI

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: