Las computadoras personales



Sergio Ellerbracke Román, Elba Lomelí Mijes
Ver en el PDF

Las industrias de la electrónica y la computación han sido sinónimos de innovación tecnológica. Ahora mismo es posible observar una sólida innovación en los drones, en la electrónica automotriz y en la robótica. Los discos de estado sólido poco a poco reemplazan a los discos duros. La tinta electrónica aparece como una tecnología ecológica que puede reducir el uso de papel. La inteligencia artificial va encontrando múltiples nichos comerciales.

     Sin embargo, los patrones de consumo de las computadoras personales han cambiado. Por décadas fue necesario reemplazar nuestra computadora por una nueva, porque era obsoleta y ya no era práctico seguir trabajando con ella, así que la reemplazábamos aunque siguiera funcionando. Esto se hacía cada dos o tres años. En cuanto a las laptops, es frecuente que se sustituyan porque se descomponen, o porque ya son equipos muy lentos. Ahora los usuarios intentan reparar los equipos, pero es frecuente que el costo de reparación compita con el costo de un equipo nuevo. Se rompe la tendencia de décadas anteriores.

 

EVOLUCIÓN TECNOLÓGICA DE LAS COMPUTADORAS PERSONALES

 

En 2012 realizamos una investigación sobre la evolución de la velocidad de los procesadores y encontramos que los equipos alcanzaron las máximas frecuencias en el 2004 (procesadores de 3.2 Ghz y moda de 2.8 Ghz), para luego descender y estabilizarse con una moda de alrededor de 1.6 Ghz entre 2005 y 2011 (Ellerbracke y Lomelí, 2012). Para esa investigación se buscaron anuncios comerciales en la hemeroteca digital del periódico El Informador (Guadalajara, Jalisco), de los meses de diciembre entre 1988 y 2010, hasta completar un mínimo de diez equipos por año, y para el 2011 se analizó la totalidad de equipos de cuatro tiendas departamentales.

    En esta siguiente etapa se monitorearon los equipos a la venta desde el 2012 al 2019, fundamentalmente en Best Buy y Office Depot, y se completó la base de datos original desde 1985 a 1987, de manera que ahora se tienen datos de 35 años, y se ha ampliado la información para incluir la cantidad de memoria RAM, capacidad de almacenamiento (diskettes, discos duros, discos de estado sólido), discos extraíbles, tarjeta de red y USB. La base de datos ya cuenta con más de 670 especificaciones de equipos, así que ahora es posible mostrar una perspectiva más amplia de la evolución tecnológica de las computadoras personales.

     A continuación se realizará el ejercicio de comparar las capacidades de hardware de las computadoras personales, haciendo cortes cada cinco años. La primera computadora personal de la historia fue la Altair, en 1975, y para 1977 ya existían propuestas serias, tanto de Apple, como de Commodore y de Radio Shack (Joyanes, 1997). Entonces, es posible comenzar este ejercicio en 1980. La tabla I muestra las especificaciones de las modas de las computadoras personales de cada año presentado. La excepción es en 1980, donde registramos como computadora común la Commodore Vic 20. En este caso, es parte de nuestra experiencia personal. En 1980 había anuncios comerciales de computadoras en El Informador, pero no eran los de computadoras personales. Eran anuncios para empresas. El objetivo era que hubiera computadoras en las empresas. La Vic 20 tenía una casetera especial donde se guardaban los programas y los archivos de datos generados por el usuario.

     En 1980 ya se podía conectar un disco duro a una computadora personal, pero no eran de un precio accesible para un usuario doméstico.

    En 1985, lo más común era una PC compatible, modelo XT, ya que en 1983 IBM había lanzado la IBM XT, con piezas disponibles en el mercado, lo que detonó la creación de múltiples marcas que hacían computadoras “compatibles con IBM” con un procesador Intel 8088 de 4.77 Mhz y 256 Kb de Ram. Tenían monitor monocromático o a color (CGA, con paleta de 16 colores), y dos disketeras para diskettes de 5.25” y capacidad de 360 Kb. No tenían disco duro.

     En 1990 se vendían computadoras AT y 386. La moda fue una AT, con procesador Intel 80286 de 12 Mhz. El monitor era monocromático o a color (RGB, con paleta de 256 colores). Dieciséis de las 24 computadoras anunciadas en 1990 ya tenían disco duro, con una moda de 40 Mb. A partir de 1990 se popularizaron las impresoras de chorro de tinta.

    Para 1995, las computadoras ya eran multimedia, con bocinas y unidad CD-ROM, con sistemas operativos gráficos manejados por mouse, y ya podían conectarse a Internet por medio de una tarjeta de módem, ocupando la línea telefónica. Las máquinas que se vendían eran DX2, DX4, Pentium o Macintosh, entre 33 y 100 Mhz. La moda fue una Pentium de 75 Mhz. Es de remarcar el salto en la capacidad de los discos duros, que estaban entre 250 y 850 Mb (la moda fue de 540 Mb).

     En el año 2000 fue la primera vez que el equipo promedio era una laptop. Las frecuencias estaban entre 533 Mhz y 1 Ghz. La mitad de los equipos trabajaban a 600 Mhz. El monitor era VGA de 800 x 600, traían unidad de DVD de lectura/escritura y, por primera vez, puertos USB.

     Para el 2005, las frecuencias estaban entre 1.6 y 3.2 Ghz, con dos modas: de 1.6 y 1.86 Ghz. Los monitores alcanzaron la resolución de 1024 x 768. Los puertos USB se convirtieron en el mecanismo estándar de conexión de dispositivos. El acceso a internet era básicamente por cable de red.

     En el 2010 las procesadores fluctuaban entre 1.6 y 2.3 Ghz. A partir de entonces, la conexión a Internet se dio de forma inalámbrica. La moda en los procesadores rondaba los 1.6 Ghz (1.6 o 1.66 Ghz). Este año todos los equipos tenían 1 Gb de RAM.

    A partir del 2015 los datos de nuestra investigación ya no dependen de las ofertas del Informador, sino que incluyen el análisis de la totalidad de modelos a la venta en tiendas como Best Buy u Office Depot. Podemos decir que ya representan la oferta de computadoras en nuestro entorno. Para el 2015 se analizaron 35 equipos, los procesadores estaban entre 1.2 y 3.1 Ghz, con una moda de 2.1 (7 equipos), y un promedio de 1.83 Mhz. En ese año ya se encontraron tres equipos con disco de estado sólido. Aunque la media en capacidad de los discos duros era de 1 Tb (15 equipos), hubo 12 equipos con discos duros de 500 Gb.

     Finalmente, en el 2019 se registraron 57 equipos, con procesadores entre 1.1 y 3.2 Ghz, con media de 2.3 Ghz (14 equipos) y promedio de 2.13 Ghz. Diecinueve de los equipos ya incluían discos de estado sólido.

     Actualmente contamos con una base objetiva para medir el ritmo de la evolución tecnológica de las computadoras personales. Realizando el análisis por décadas, la velocidad de los procesa-dores se multiplicó por 12 entre 1980 y 1990, por 50 entre 1990 y 2000, por 2.7 entre 2000 y 2010, y por 1.4 entre 2010 y 2019. El tamaño de la memoria RAM se multiplicó por 256 entre 1980 y 1990, por 64 entre 1990 y 2000, por 16 entre 2000 y 2010 y por 8 entre 2010 y 2019. Los discos duros no formaron parte del equipamiento normal en las computadoras personales hasta 1990, y su capacidad se multiplicó por 307 entre 1990 y 2000, por 13 entre 2000 y 2010, y por seis entre 2010 y 2020. Con los datos en la mano, podemos afirmar que la tasa de innovación tecnológica ha disminuido con respecto a décadas anteriores.

    Otra diferencia fundamental es el incremento en los años de uso de velocidades y capacidades específicas. Para ejemplificar, los procesadores de 12 Mhz se usaron entre 1988 y 1991, los de 50 Mhz entre 1993 y 1994, y los de 400 Mhz se usaron en 1998 y 1999. En contraparte, los procesadores de 1.6 Ghz se presentaron en el 2001, y se han usado de forma continua hasta el 2019. Otro asunto son los procesadores de bajas velocidades que desaparecieron y ahora vuelven a ser usados.

     El procesador de 1.0 Ghz se presentó en el 2000 y se usó hasta el 2003. Del 2005 al 2011 las velocidades mínimas fueron 1.33 (2008), 1.4 (2006), 1.5 (2011), y 1.6 Ghz (2005, 2007, 2009 y 2010). De forma inédita, a partir de 2012 encontramos procesadores de 1.1, 1.2 o 1.3 Ghz. En el 2019, el 12 % de los equipos tenían procesadores de 1.1 Ghz.

     Lo mismo ha sucedido con el tamaño de la memoria RAM. Mientras que los equipos con 1 Mb se vendieron únicamente entre 1990 y 1992, o los 32 Mb de RAM solo se presentaron entre 1997 y 1999, en este siglo los equipos con 512 Mb de RAM se encontraron entre 2001 y 2008, mientras que los 4 Gb de RAM han estado presentes desde 2009 a la fecha (el 41 % de los equipos en 2019 tienen 4 Gb de RAM). Y también se reproduce el fenómeno del incremento en el número de años para la capacidad de los discos duros. Mientras que los discos de 30 Mb se presentaron solamente entre 1988 y 1990, o los discos de alrededor de 500 Mb se encontraron entre 1994 y 1996, los discos de 500 Gb persisten aun entre el 2009 y el 2019 (el 12 % de los equipos del 2019 son de esta capacidad).

 

PUNTO DE INFLEXIÓN: LOS LÍMITES FÍSICOS DEL SILICIO

 

Ahora necesitamos entender las razones por las que se han producido estos cambios de tendencia en las tecnologías de las computadoras personales. El hecho fundamental es que entre 2002 y 2003 la tecnología del silicio alcanzó sus límites físicos, A partir de los 2.5 Ghz, la física del silicio da un vuelco. El consumo eléctrico se dispara. A los 2.4 Ghz un procesador consume 70 watts, pero a los 3.1 Ghz ya consume 300 watts, lo que va acompañado de un fuerte calentamiento. Los procesadores se queman, y la velocidad depende de la capacidad de enfriamiento de las computadoras, esto es, de la potencia de los ventiladores del equipo. Las laptops tienen una capacidad de enfriamiento muy limitada, porque están diseñadas para ser delgadas y ligeras, los ventiladores que pueden contener son mínimos (o inexistentes). En general, para desktops, el límite son 4.0 Ghz, con enfriamiento por aire (ventiladores y disipadores de calor). Es posible operar a más gigahertz con enfriamiento líquido, pero la inversión y el costo de operación son más elevados. En términos prácticos de enfriamiento por aire, no es factible construir procesadores por encima de 4.0 Ghz. El silicio es un material y, como tal, tiene propiedades físicas. Realmente no se puede hacer nada, con la excepción de buscar otra tecnología que pueda sustituir al silicio. Tal vez exista y se encuentre dicha tecnología, o tal vez no.

    Ahora bien, ante el hecho de que ya se alcanzaron los límites del silicio, la industria ha realizado una serie de acciones, algunas con la intención de lograr el incremento en performance por distintas vías, y otras de mero carácter mercadológico. De esta forma, a partir del 2004:

     Se incluyó un procesador para gráficos (GPU) en todos los motherboard. Esto le descargó al procesador del pesado trabajo de operar la interfaz gráfica del sistema operativo. Ahora bien, si se quieren ejecutar juegos de alta gama, es indispensable contar con otra GPU con cientos de núcleos.

     El incremento en la velocidad de la memoria RAM. En el 2004, la RAM trabajaba a 333 o 400 Mhz.

     Para el 2007 ya había disponibles memorias de 1.8 Ghz. Ahora bien, una cosa es que la tecnología esté disponible, y otra muy distinta es que esté integrada en un equipo en particular. Como ejemplos, encontramos velocidades de 1.33 Ghz en 2012, de 1.6 Ghz en 2013 y 2014, y de 1.066 Ghz y 1.2 Ghz en 2019. De cualquier forma, se obtiene un incremento del performance de entre tres y cinco veces.

     Optimizaciones en la arquitectura de los microprocesadores. A partir del 2004, los fabricantes de procesadores han incluido una serie de optimizaciones que incluyen la macrofusión (fusionar algunas instrucciones de ensamblador en menos instrucciones); out of order execution (ejecutar segmentos de ensamblador que puedan ser ejecutados de forma aislada, en áreas destinadas para ese uso); vectorización (ejecución de varias operaciones aritméticas o de varias iteraciones de un ciclo de forma simultánea); y la principal innovación, the instruction fetch and branch prediction. Hasta el 2004, cada instrucción de ensamblador requería dos ciclos de reloj, uno para cargar la instrucción en los registros y otro para ejecutarla. Ahora se carga la siguiente instrucción en el mismo ciclo en que se ejecuta la instrucción actual. Para Parihar (2017), en el caso del branch prediction, ya se ha alcanzado entre un 93 o 94 % de eficiencia. En la práctica, eso casi dobla el desempeño de microprocesadores sin esa tecnología.

     Turbo Boost (Intel) o Turbo Core (AMD). Es el incremento automático de la velocidad del procesador, dentro de límites preestablecidos, cuando el procesador tiene cargas máximas de trabajo y si la temperatura del procesador lo permite.

     Ahora bien, ¿cuál es el efecto combinado de estas mejoras? Desde el 2012 hemos ejecutado un algoritmo que calcula los números primos que hay en el primer millón de números, con el algoritmo más ineficiente posible, que requiere la friolera de 37,566,404,991 operaciones, registrando el tiempo y normalizando a las operaciones que realiza un gigahertz en un segundo. Hemos probado 55 equipos. Para procesadores fabricados hasta el 2004, el promedio era de 24.7 millones de operaciones por segundo, mientras que para los procesadores fabricados del 2016 al 2019, el promedio es de 137.96 millones de operaciones por segundo, un incremento del 550 %.

     No está mal, aunque es claramente inferior a los incrementos de 12 veces de 1980 a 1990, o de 50 veces de 1990 al 2000. Pero no es sostenible. Es una estrategia de rendimientos decrecientes. Al procesador ya no se le puede volver a descargar del trabajo de la interfaz gráfica, la RAM ya alcanzó a los procesadores, una instrucción ya no necesita dos ciclos de reloj para ejecutarse, y el turbo boost (o turbo core) está limitado por los watts que puede consumir el procesador, y la correspondiente generación y disipación de calor. Las mejores optimizaciones ya se realizaron, y las sucesivas serán menos relevantes.

     Y luego, están las estrategias que ha adoptado la industria de cómputo y que confunden o lesionan los intereses de los consumidores:

     En primer lugar, es inaceptable que el usuario compre un equipo a ciegas, por lo menos en lo relativo a las velocidades del procesador y la RAM. Si bien los Ghz son más productivos que antes, prevalecen grandes diferencias en los equipos. Los MIPS (millones de operaciones por segundo), son una opción objetiva para informarle al usuario sobre la capacidad de un procesador. Ahora mismo es posible comprar un equipo de 69 MIPS por Ghz, o uno de más del doble de MIPS por Ghz. Además, el turbo boost (o turbo core), se activa (o no) sin control por parte del usuario y, adicionalmente, el procesador puede actuar por debajo de su frecuencia base si se determina que tiene poco trabajo.   

     En segundo lugar, se le ha dado un peso desproporcionado a los núcleos del procesador, cuando en realidad el usuario prácticamente no los va a utilizar, porque son muy escasos los problemas que requieren supercómputo.

     En tercer lugar, ciertos equipos simplemente son inaceptables. La Acer SW1-011-17BE (2017), Lenovo MIIX 320 (2017), HP 11-Y004LA (2017), Lenovo 80R900LRLM (2017), HP 240 G6 (en 2018) y Acer 51003-1622 (en 2019) tienen solamente un disco de estado sólido de 32 Gb, sin disco duro. Son máquinas hasta de 5,500 pesos, pero no son mínimamente funcionales. La Asus C100PA-FS0002 está todavía peor: disco de estado sólido de 16 Gb sin disco duro. Además. tan solo en 2017, once equipos (de 124), únicamente tenían disco de estado sólido de 128 Gb, sin disco duro. Dado el tamaño de los softwares actuales, los usuarios frecuentemente necesitan desinstalar un programa para instalar otro. En la actualidad, 128 Gb son claramente insuficientes. Y no eran equipos económicos: fluctuaban entre los 13,599 y los 29,999 pesos. Siete de esos equipos eran de 19,999 pesos o más. Pero no es la única razón por la que un equipo es inoperante. Nos consta que la Lenovo 330-14IGM, con procesador Intel Celeron N4000 1.1 Ghz, es demasiado lenta para ser de utilidad. Aunque el turbo boost sí se activa, la máquina es tan lenta que no es posible navegar con una sola página de video de mediana resolución. Trabaja un tiempo, se satura, y ocupa diez o quince minutos para estar en condiciones de seguir proyectando el video. Y es un equipo que se está vendiendo en 2019 en 6,679 pesos. Los 1.1 Ghz realmente hacen inútil al equipo.

 

CONCLUSIONES

 

Resumiendo, podemos afirmar varios hechos:

     La tasa de innovación tecnológica en las computadoras personales ha disminuido, con respecto a décadas anteriores. Hay un incremento en el número de años de vigencia de las tecnologías de computadoras personales con respecto a décadas anteriores. Las computadoras personales (al igual que los automóviles, electrodomésticos, focos y una larga lista de productos), no se diseñan para su perduración, sino para una vida útil reducida. A tal fenómeno se le suele denominar “obsolescencia programada”. A la industria de cómputo no le interesa dar soporte a sus productos con refacciones accesibles durante largos períodos de tiempo y a un costo razonable.

     La innovación se introduce de forma más lenta que en el pasado. Sin duda la innovación más importante de la industria en lo que va del siglo son los discos de estado sólido que incrementan en dos órdenes de magnitud la velocidad de los accesos a disco aleatorios (los requeridos por las bases de datos). Las primeras computadoras que incluían esta tecnología son del 2013, y para el 2019 solamente uno de cada tres equipos incluye un disco de estado sólido.

     Sin embargo, la industria de cómputo es diferente de otras industrias por el éxito indudable del FOSS (Free and Open Source Software). De hecho, existen múltiples iniciativas de Open Hardware: Open Cores, Open Power, openhardware.org, OSHWA, FreeCores, Open Source Hardware Association, Observatory of Open Source Hardware y Open Hardware Directory. En cuanto a procesadores, desde el principio la arquitectura UltraSparc (de Sun, que era el diseño de un procesador de 200 Mhz), fue de licencia abierta, y en 2018, fue liberado el Open Source RISC-V por la compañía SiFive, conjuntamente con un motherboard diseñado para el procesador con una frecuencia de 1.8 Ghz (Byfield, 2019). 

     Otra posible influencia en el sentido del diseño para la perduración podría venir de China Zhaoxin Semiconductor (propiedad conjunta del gobierno de Shangai y VIA Technologies), quienes recientemente liberaron el procesador KX-6000 a 3.0 Ghz. Es importante recordar que VIA fue la empresa pionera en el desarrollo de procesadores diseñados para la duración, al ofrecer garantías de siete años en sus productos (VIA, 2011).

     El hecho de que la industria de cómputo haya elegido una política de engaño a los consumidores, de forzar la compra a ciegas, de insistir en tecnologías irrelevantes, y de incorporar diseños y prácticas de obsolescencia programada a las computadoras personales, posiblemente desencadene un enojo por parte de los consumidores y el fortalecimiento del todavía incipiente movimiento consumerista (o de consumidores indignados). Ya se verá.  

 

R E F E R E N C I A S

 

Byfield B. Where Open Hardware is Today. Recuperado de: https://fossforce.com/2019/06/where-open-hardware-is-today/.

Ellerbracke S, Lomelí E (2012). El fin de la edad de oro del flujo principal de la computación y sus implicaciones en la globalización. Revista de la Universidad del Valle de Atemajac 72:64-76.

Joyanes L (1997). Cibersociedad. Los retos sociales ante un nuevo mundo digital. Madrid:McGraw-Hill.

Parihar R (2017). Branch prediction techniques and optimizations. University of Rochester, NY, USA. Recuperado de: http://www.cse.iitd.ernet.in/~srsarangi/col_718_2017/papers/branchpred/branch-pred-many.pdf.

VIA (2011). Via Nano X2 E-Series Dual Core Processors Debut at Embedded System Conference. Disponible en: https://www.viatech.com/en/2011/04/via-nano-x2-e-series-dual-core-processors-debut-at-embedded-system-conference/.

 

Sergio Ellerbracke Román
Profesor del Centro de Enseñanza Técnica Industrial
Jalisco
 
Elba Lomelí Mijes
Profesor-Investigador del Departamento de Geografía y Ordenación del Territorio
Universidad de Guadalajara

Número actual

Elementos {{num_act.numero}}
{{num_act.trimestre}} / {{num_act.fecha}}
ISSN: {{num_act.issn}}