Ctrl+Alt+Delete. Excepto que hayas vivido aislado durante el último medio siglo o que pertenezcas a una generación muy, pero muy joven, este atajo de teclado no solo te resulta familiar, sino que posiblemente te eriza la piel. Hoy lo hemos domesticado. Windows, desde hace unas cuantas versiones, le para la mano a este hachazo virtual y, si acaso todavía hay algo de vida en esa computadora, entonces muestra una pantalla con varias opciones. No era así originalmente. Ctrl+Alt+Delete eran las tres teclas que apretábamos a la vez para reiniciar una computadora personal. Sin preguntar. Sin confirmar. Sin anestesia. Apretabas Ctrl+Alt+Delete, y todo lo que había en la pantalla desaparecía, se oían algunos ruidos (el disco duro, la diskettera) y la máquina arrancaba de cero otra vez. ¿Y lo que estabas haciendo? Bueno, se perdía. Bye bye.
Como ocurrió con el email o con los protocolos TCP/IP, el hombre que compuso este entrañable y a la vez terrorífico atajo de teclado no tuvo la intención de pasar a la historia. Solo estaba siendo un poco desobediente. Se llama David Bradley y fue uno de los 12 ingenieros que IBM mandó a una unidad recién estrenada en Boca Ratón para que idearan la que se convertiría en la primera computadora personal de la marca y la que se llevaría el mundo por delante. El departamento de finanzas de la compañía les había pedido que al menos vendieran 241.000 máquinas en 5 años. Solo en diciembre de 1984 vendieron 270.000.
:quality(80)/cloudfront-us-east-1.images.arcpublishing.com/lanacionar/ZRDEF5Y3KJAUBCT5UHYDTO424Q.jpg)
Entrevisté a Bradley en 2011, cuando la IBM/PC, que fue anunciada el 12 de agosto de 1981, cumplió 30 años. Aunque a veces uno tarda en caer, el hombre campechano al otro lado de la línea de teléfono, que me estaba contando los detalles de uno de los proyectos más disruptivos (y accidentados) de la historia de la civilización, había realmente estado ahí y había sido una pieza clave de ese invento. La historia que van a leer es, pues, de primera mano.
Una nave
Las computadoras nunca fueron pensadas para que las usáramos los particulares. “No veo ninguna razón para que una persona común quiera tener una computadora personal en su casa”, dijo en una conferencia, en 1977, Ken Olsen, el fundador de Digital Equipment Corporation (DEC), una de las principales competidoras de IBM, que luego sería adquirida por Compaq, poco antes de que Compaq fuera absorbida por HP, durante el mandato de Carly Fiorina. Es verdad que Olsen hablaba de algo así como asistentes digitales, pero también eso iba a llegar un poco después; se llaman smartphones.
El caso es que la palabra computadora era como la palabra tomógrafo o nave espacial. Podías necesitar una cada tanto. Podías admirar a los astronautas. Incluso podrías querer ser astronauta, pero nunca ibas a tener una nave espacial en tu jardín; en 2006, esta idea seguía siendo lo bastante chiflada como para dar origen a una película llamada The Astronaut Farmer.
:quality(80)/cloudfront-us-east-1.images.arcpublishing.com/lanacionar/5ON4VTSVRVF6NJ5PEV773VCDCM.jpg)
Las computadoras estaban en esa misma línea. No era una conspiración ni nada parecido. Era el clima de la época. ¿Para qué servía una computadora? Para hacer mucho cálculo. ¿Quién necesita hacer tanto cálculo en casa? Respuesta de la época: nadie. ¿Cuánto cuesta una computadora? Millones de dólares. ¿Quién va a gastar millones de dólares en algo que no necesita? Obvio, nadie. Más aún, una computadora ocupa una habitación grande. ¿Alguien tiene un cuarto grande en su casa para dedicarle a una máquina que no necesita y que cuesta millones de dólares? Nope.
:quality(80)/cloudfront-us-east-1.images.arcpublishing.com/lanacionar/2I2UI6ZCKVEJLJ5HBXFNPZUP2A.jpg)
En todo este razonamiento parecería haber una falacia. Esa falacia es que la miniaturización iba a reducir el tamaño y el costo de las computadoras hasta valores ridículamente bajos. Pero la falacia no está ahí. También iban a bajar de precio y de peso los sistemas de vuelo de las naves espaciales, y sin embargo seguimos sin tener un cohete en el jardín. No. La falacia está en otro lado. La falacia está en creer que no necesitábamos poder de cómputo en nuestras casas.
¿Pero con una calculadora de bolsillo no alcanzaba? La respuesta simple es que no. Una calculadora hacía más o menos 10 operaciones de coma flotante por segundo (FLOPS, por sus siglas en inglés). Una PlayStation 5 hace un poco más de 10 billones de FLOPS. Lo que el clima de época no permitía ver era que a medida que toda la información (de allí la palabra informática) se convertía en números (en unos y ceros, para ser más precisos) muy pronto todos íbamos a trabajar no ya con lápiz y papel, máquina de escribir, regla de cálculo y teléfono de baquelita, sino con aritmética. Íbamos a necesitar hacer montañas de cálculo. No solo trabajar, también oír música, ver películas o conducir el coche con ayuda del GPS, todo iba a requerir cálculo.
El árbol no permitía ver el bosque. Pero entonces ocurrieron una serie de hechos que nos trajeron hasta el día de hoy, en el que las computadoras ya no ocupan una habitación y ni siquiera son un armatoste de 15 kilos sobre nuestro escritorio, sino un aparatito de 150 gramos en el bolsillo. Con GPS. Y una pantalla a color que hace escasos 30 años habría costado más que una flota de autos.
Cambia el clima
Lo que pasó, en efecto, fue la miniaturización. De las voluminosas válvulas de vacío pasamos a transistores que tenían el tamaño de una moneda. Luego fueron más pequeños. Hasta que empezamos a integrarlos en circuitos que contenían varios transistores. Varios se transformó en decenas, en cientos, en miles, en millones (el Pentium tenia poco más de 3 millones de transistores) y, hoy, en miles de millones.
Con la miniaturización, por motivos que parecen obvios, pero que en realidad son bastante complejos, sobrevino una caída del precio del poder de cómputo que, simplemente, no entra en la cabeza. En 1961, ejecutar mil millones de FLOPS costaba casi 170.000 millones de dólares (actualizados por inflación). Hoy, cuesta 2 centavos de dólar.
Ese proceso hizo que algunas compañías crearan computadoras para hobbistas. Una de las primeras fue MITS, con su Altair 8800, una microcomputadora basada en uno de los primeros cerebros electrónicos significativos de Intel, el 8080. Para esta máquina, que fue lanzada en 1975, Microsoft escribiría un lenguaje de programación cuyo nombre es hoy bien conocido y existe para casi todas las plataformas, el BASIC. Una larga historia que ya contaremos.
La Altair 8800 tenía un número de problemas de diseño (algunos eléctricos, otros informáticos) y carecía de pantalla y de teclado. No obstante, y un poco como ocurrió con los primeros libros, la necesidad de cómputo era tan grande en la sociedad que se convirtió en un éxito de ventas. Esa clase de máquinas, que ya podían programarse, que nos permitían sentir la adrenalina de la computación por venir, dispararon una idea genial en Steve Wozniak, el cofundador de Apple. A la Altair 8800 podía conectársele una terminal de teletipo, con impresora y todo, pero, la verdad, eran muy difíciles de usar y los periféricos resultaban muy costosos. ¿Así que por qué no ponerles un teclado económico y conectarlas a un televisor común? Así, en 1975, nació la Apple I, y en 1977 (el mismo año en el que Ken Olsen diría la frase citada arriba), salió la Apple II. Y eso fue demasiado.
David Bradley estuvo ahí y fue convocado para trabajar en un proyecto que se le había metido en la cabeza al gran Philip Donald Estridge: IBM debía salir a competir con estas máquinas que sus vendedores veían cada vez más en el despacho del contador de las pyme; algunos incluso les confesaban que se habían comprado una para sus casas. Algo grande estaba pasando y Estridge lo percibía en el aire. Don Estridge falleció tempranamente, en el accidente del vuelo 191 de Delta Airlines, una tragedia que se podría haber evitado si hubieran prestado oídos a otro pionero, Ted Fujita, que había descubierto el tipo de fenómeno atmosférico (las micro ráfagas) que hizo caer el vuelo 191 y muchos otros, hasta que los aeropuertos actualizaron sus radares.
Estridge insistió con que IBM participara de ese mercado. Era una idea absurda. Algo así como que Ford o Volkswagen se pusieran seriamente a construir autos de juguete. “Esos juguetes de 8 bits”, así llamaban a las microcomputadoras, y cuando Don logró vencer la resistencia corporativa lo mandaron con su equipo a unas instalaciones experimentales para diseñar sistemas de nivel básico en Boca Ratón, Florida.
La historia es más o menos conocida, pero en resumidas cuentas, a Donald le dieron un año para diseñar su dichosa PC (por Personal Computer), y el problema era que en IBM todo se hacía en IBM. Diseñar el cerebro electrónico para esa PC no iba a llevar menos de dos años; ni hablemos de fabricarlo. Pero como IBM ya había comprado un chip a Intel antes (para el System/32, también llamado Datamaster), la idea blasfema de usar un componente de terceros flotaba en el aire. ¿Pero y el software? El software también se hacía puertas adentro, y también llevaría años crearlo. Ahí es donde entraron Bill Gates y Microsoft. Ya contaré esa historia.
Perdón, me colgué
Así que en 1980, Estridge y sus ingenieros –entre ellos, Bradley– se pusieron a trabajar en lo que se convertiría en el modelo 5150, la IBM/PC, una máquina cuyo ADN sigue entre nosotros. Salvo que uses una Mac, tu notebook es un clon moderno de aquél invento. Ahora, ¿qué le encargaron a Bradley y por qué terminó inventando Ctrl+Alt+Delete? A eso vamos.
Cuando apretás el botón de encendido de tu notebook o de cualquier otro dispositivo digital, el equipo todavía no ha cargado Windows o Android o lo que sea. Peor todavía: no sabe dónde está el sistema operativo ni cómo cargarlo. El equipo ignora asimismo si hay tarjeta de video, si la corriente llega de la forma adecuada a todos los componentes, si hay memoria instalada, y así. Para que la uses debe cargar un sistema operativo, pero de momento es solo un amasijo inerte de cables y transistores. Pues bien, el BIOS (por Basic Input Output System) es un software que se activa automáticamente cuando encendés la máquina y se encarga de, primero, verificar que todos los componentes estén presentes y correctamente alimentados (ese programa se llama POST, por Power On Self Test) y, si todo está bien para el despegue, inicia un cargador de arranque o bootloader, que busca un sistema operativo donde se supone que debe estar y, si lo encuentra, lo carga y entonces ves la pantalla de inicio de, digamos, Windows. Vos acabás de soltar el botón de encendido y ya está cargando Windows, porque todo esto hoy ocurre en un pestañeo. Originalmente, llevaba más tiempo. Pero es indispensable. Los smartphones tienen asimismo un mecanismo para cargar el sistema operativo, aunque es un poco más complejo que el de una notebook. El BIOS ha evolucionado de diversos modos en estos 40 años, pero la lógica sigue siendo la misma.
Pues bien, a Bradley le tocó la tarea de escribir el BIOS, que, en el fondo, es software. Se lo llama también firmware, un neologismo inventado por Ascher Opler en un artículo para la revista Datamation en 1967; firmware viene del hecho de que el BIOS es un software integrado a un chip, de modo que no es ni solo hardware ni solo software, sino que está en el medio.
:quality(80)/cloudfront-us-east-1.images.arcpublishing.com/lanacionar/TR5BCD24NFFGROVI5EMJWFH7BQ.jpg)
Una de las cosas que se le ocurrieron a Bradley fue que los esforzados ingenieros que estaban tratando de desarrollar un equipo casi de cero en tiempo récord pudieran reiniciar el sistema de una forma rápida y pasando por alto los chequeos de seguridad que requerían los estándares de IBM. Para peor, el botón de Reset estaba en la parte de atrás del equipo, así que era mucho más cómodo reiniciar desde el teclado. “Era algo para programadores”, me dijo, cuando hablé con él en 2011. Pero todo se sabe, y lo que terminó ocurriendo es que las primeras computadoras personales tendían a colgarse con frecuencia. ¿Qué hacer en ese caso? Lo más aconsejable era enviar la señal de reinicio mediante el BIOS con el atajo Ctrl+Alt+Delete. Apagar y prender con la tecla de encendido era una medida a la que solo recurríamos si la máquina se había colgado tanto que no respondía a nada, ni siquiera a Ctrl+Alt+Delete. La idea de un atajo de teclado para reiniciar el equipo no era, sin embargo, nueva. Ya había sido introducida en una microcomputadora de corta existencia, la Sorcerer, de Exidy, en 1978; tenía dos teclas arriba a la izquierda etiquetadas Reset. Al apretarlas juntas, se reiniciaba la máquina.
Ctrl+Alt+Delete habría permanecido más o menos bajo la alfombra de no haber sido por otra decisión que el equipo de Estridge tomó. Y que fue la más disruptiva de todas.
La guerra de los clones
Una nueva generación de computadoras no sirve para nada si no atrae a programadores que escriban aplicaciones y fabricantes que diseñen impresoras, scanners, pantallas, placas de video y demás. Por lo tanto, y contra todo lo que decían los reglamentos de IBM, la PC nació con sus circuitos y el código del BIOS públicos. Y en lugar de registrarlos como diseño industrial, lo pusieron bajo el paraguas de los derechos de autor. “Queríamos desarrolladores de periféricos y de software. Los clones nos parecían más bien algo halagador, al principio, pero no eran la meta”, me dijo en su momento Bradley. O sea que si no hacías una copia literal del BIOS, sino solo uno compatible, estaba todo bien.
:quality(80)/cloudfront-us-east-1.images.arcpublishing.com/lanacionar/OYA3GJ6FEVAVBGSLEJYIEPO5VQ.jpg)
¿Pero qué pasó? Pasó algo que es ley en la tecnología. Cuando aparece algo disruptivo, el público va a querer tener un equipo de esos, y si no puede pagar uno de IBM, comprará uno más económico. Aunque se cuelgue cada tanto. Y el caso (lo sufrí en carne propia) es que se colgaban con muchísima frecuencia. Así que la decisión legal de permitir una copia no literal de las PC de IBM (se llamaban clones) llevó a que todos aprendiéramos el atajo Ctrl+Alt+Delete. Que finalmente quedó tan integrado a nuestra vida cotidiana que hoy, si lo apretás, Windows te va a mostrar una civilizada pantalla con varias opciones. Pero no va a reiniciar sin más, como era originalmente. No, tampoco si volvés a apretar Ctrl+Alt+Delete.
:quality(80)/cloudfront-us-east-1.images.arcpublishing.com/lanacionar/P4OLQOLKTNFJRH5GOSUXBUXPCI.jpg)
Esta decisión de permitir los clones fue a la vez el disparador de la inmensa popularidad de las PC (al revés de lo que pasó con las Mac; Apple prohibía los clones y solo alcanzó a tener el 4% del mercado), pero también un salvavidas de plomo para la compañía, que pronto se vio avasallada por los clones, a cuyas manos perdió casi todo el mercado. En 2005, IBM vendió su división de PC a Lenovo.
David Bradley nació el 4 de enero de 1949 y entró a trabajar en IBM en 1975 (el mismo año en que se fundó Microsoft). Tiene una hija, que es también ingeniera, y en su casa circula la broma de que la única forma de pertenecer a la familia Bradley es siendo ingeniero o casándose con un Bradley (que por fuerza será ingeniero). Se retiró de IBM en 2004. Para entonces, y de la forma más inesperada, se había convertido en un pionero y su nombre había quedado grabado de forma indeleble a la historia de la revolución digital. Dato de color, pero delicioso: originalmente, Ctrl+Alt+Delete, tal como lo creó Bradley, era en realidad Ctrl+Alt+Escape. Pero como las tres teclas estaban demasiado cerca era posible apretarlas por error. Así que las cambió, por sugerencia de un programador, a Ctrl+Alt+Delete, que no puede apretarse con una sola mano.
Fuente: La Nación
Sea el primero en comentar en "David Bradley: el inventor del atajo de teclado más famoso de la historia"