jueves, 11 de febrero de 2010

domingo, 8 de noviembre de 2009

viernes, 23 de octubre de 2009

Interfaces del futuro

Interesante perspectiva sobre los interfaces del futuro. Parece que no es posible sustraerse a los menús.

lunes, 29 de junio de 2009

Xerox Star Demo GUI 1981


PART 1


PART 2

martes, 19 de mayo de 2009

domingo, 11 de enero de 2009

Traduciendo

Entre 1942 y 1944, José Clemente Orozco pintó una serie de murales en el Hospital de Jesús, en la Ciudad de México, escenificando el encuentro entre españoles y mexicas. El hospital, fundado por Hernán Cortés en 1524, es el primero construido en América.

Orozco toma prestada de los códices aztecas de los siglos XV y XVI la visualización gráfica del habla frente a las figuras. Esa suerte de nubes, globos o "bocadillos", si pensamos en el comic, simbolizan la traducción, el conflicto fronterizo entre diferentes lenguas, entre distintos sistemas y al mismo tiempo las necesidades de crear espacios de comunicación. Encuentro muy sugerente la interpretación gráfica del pintor.



Escena de medicina (Códice Florentino, Libro 11)

La proyección cartográfica

Las necesidades de la navegación, y en paralelo, las estrategias geopolíticas que las alientan, pronto encontraron respuesta en la consecución de mapas. Humboldt, quien daría un gran empuje a la ciencia geográfica a caballo de los siglos XVIII y XIX resumió la relación entre exploración y estrategia: "Sólo se encuentra lo que se busca". Tampoco hay que exagerar la importancia de este acercamiento conceptual, porque muchos de los "descubrimientos" (geográficos o técnicos) fueron hallazgos, en absoluto previstos ni imaginados. No obstante, la geografía nace predeterminada por unas necesidades sociomentales que la impulsan a elaborar todo un sistema técnico de proyección que sea capaz de dibujar "con distancia" las formas del mundo; iluminarlas de un sólo golpe. Esa proyección tampoco es otra cosa que la herramienta de otra más importante: la predicción.

Esta es la reconstrucción de la supuesta carta Toscanelli (1474).


El genovés Paolo Toscanelli habría realizado esta carta náutica en la que ponía de manifiesto que las costas de Asia estaban cerca de Europa, suponiendo que entre Cipango (Japón) y Canarias hay 3.000 millas náuticas -en realidad existen 10.600 millas-. Colón habría utilizado este mapa en su primera travesía atlántica. Sin embargo, no hay evidencia alguna de su existencia. Probablemente Colón se inventó el documento a fin de tener mejor coartadas geográficas ante los patronos, aunque estuviera al corriente de las ideas del italiano. Bartolomé de las Casas también se refiere a esta carta aunque nunca la vió personalmente.

En todo caso, lo interesante en esta historia de escamoteos es la urgente necesidad de Colón y de los actores políticos, comerciales y científicos de su tiempo de dotarse de un sistema de predicción "al que agarrarse", desde el que justificar la exploración, sobre el que discutir y planear, sobre el que visualizar su propia lógica. La cultura del interfaz se va modelando también en la cartografía. Toscanelli fue pionero en el uso de meridianos y paralelos para fijar la distancia terrestre.


Interpretaciones modernas de la supuesta carta de Toscanelli.

jueves, 17 de abril de 2008

Sobre la notación musical

Uno de los procesos más sugerentes en la búsqueda de un sistema integral de representación e interpretación simbólica es la notación musical. La necesidad de un lenguaje gráfico que fuera capaz para representar la abstracción musical llevará a la creación del actual pentagrama musical. Ver La notación musical. Breve historia.

domingo, 30 de marzo de 2008

La relatividad y el supremo interfaz

El interface siempre ha venido definido por materializar leyes que interpreten el mundo objetivamente, más allá de la subjetividad de quien observa; por sugerir una fórmula que haga posible la lectura del mundo independientemente de las condiciones en las que el mundo se percibe. La teoría de la relatividad formuló con claridad esa voluntad:

"Al estudiar los cielos nos vemos privados de todos los sentidos, a excepción de la vista. No podemos tocar el sol, o viajar hasta él. [...] Sin embargo, los astrónomos han aplicado constantemente a ellos la geometría y la física que creían válida para la superficie de la tierra y que se basaba en el tacto y en el camino". Por lo tanto, el movimiento absoluto sería una ficción, y de ahí nacería el cálculo.

"A medida que avanza la física se ve con mayor claridad que la vista, como fuente de nociones fundamentales sobre la materia, es menos engañosa que el tacto".

"La física intenta informar sobre lo que ocurre en el mundo físico, y no sólo sobre las percepciones privadas de cada uno de los observadores. La física, pues, ha de interesarse por aquellos aspectos que un proceso físico presenta a todos los observadores. Tales aspectos sólo pueden considerarse como pertenecientes al mismo hecho físico. Ello exige que las "leyes" de los fénomenos hayan de ser las mismas, tanto si se describen tal como aparecen a un observador o como ante otro. Este único principio es el motivo generador de toda la teoría de la relatividad".

"Cada uno está igualmente justificado, y yerra si atribuye una validez objetiva a sus medidas subjetivas. Esta distancia en espacio entre dos hechos es, pues, un hecho físico en sí mismo. Pero existe un hecho físico que se puede deducir de la distancia en tiempo junto con la distancia en espacio. Es lo que se llama el "intervalo" en el espacio-tiempo. [...] El intervalo entre dos sucesos es un hecho físico sobre los mismos, que no depende de las circunstancias particulares del observador".

Cfr, Bertrand Russell, ABC de la relatividad, Ariel, Barcelona, 1989 (Londres, 1958)

Tráfico, capitalismo e individuo

Mucho se ha escrito sobre la relación entre el nacimiento del capitalismo moderno y la ética protestante (Weber, Troeltsch, Collinson, etc.) pero poco se ha dicho sobre la mútua influencia entre el resultado de esa comunión en el desarrollo de sistemas de traducción e interfaz.

En este sentido, el historiador José Antonio Maravall apuntó posible caminos a recorrer. Según él, la noción de "tráfico" dará un puesto central en el sistema social de inspiración burguesa, a la idea de contrato… en lo moral, en la política, en el derecho, en la economía… ya que representa "la característica más común de la especie humana". Según Adam Smith, "la disposición permutativa que provoca la propensión de negociar, cambiar o permutar una cosa por otra es la relación básica de la sociedad". Así, en el siglo XVIII nacerán términos como "tráfico en las vías de comunicación", "tráfico de mercancias", "tráfico de ideas".

L. Goldman ha señalado que, en esta tendencia a considerarlo todo en términos de "tráfico", yace la raiz del individualismo, de la noción de igualdad en la partes, de libertad en el mutuo trato de las mismas, de la propiedad, de la universalidad de las reglas, de la tolerancia. Hoy sabemos que en ella también radica la idea de imposición por la estandarización.

Cfr, José Antonio Maravall, Estudios de la historia del pensamiento español (siglo XVIII-XIX), Mondadori, Madrid, 1991, pp. 253-254

Gestionando una realidad huidiza

Una realidad huidiza, infotografiable, requiere de una apropiada gestión de aparatos ACME:

“Imaginad que queréis observar un animal muy huidizo que solo sale de noche. Una posibilidad es hacer una fotografía con flash; pero el propio relámpago provocaría su huida en busca de seguridad. Lo mismo ocurría con el átomo: en principio, se podía hacer una fotografía con flash, pero el destello mandaría los electrones a paseo. Una manera de evitar que el animal se asuste es utilizar luz muy débil o luz infrarroja que no pueda ver; pero con los electrones no hay salida: para observar la posición de un electrón se necesita, como poco, un cuanto de radiación, un cuanto de rayos X, para ser más exactos, lo cual sería suficiente para expulsar al electrón del átomo. Los cuantos infrarrojos son más suaves y podrían usarse para medir la velocidad de un electrón, igual que la policía utiliza el radar para comprobar la velocidad de un coche; pero debido, precisamente, a su gran longitud de onda, los cuantos infrarrojos nos darían la posición del electrón con muy poca exactitud. Si uno intenta medir al mismo tiempo la velocidad y la posición de un electrón, ambos vendrán afectados por cierta cantidad de incertidumbre, como indica la famosa relación de Heisenberg.”


Otto R. Frisch, De la fisión del átomo a la bomba de hidrógeno. Recuerdos de un físico nuclear, Alianza, Madrid, 1982 (Cambridge, 1979), pp. 114-115

Pasigrafía

La pasigrafía es un sistema de escritura por el que se escriben conceptos en vez de palabras o fonéticas. El objetivo (como en los números ordinarios 1, 2, 3, etc.) es que sea inteligible para personas de cualquier lengua. El término se aplicó a un sistema propuesto en 1796. Pasi en griego significa "a todos". Leibniz y Alexander von Humboldt se encuentran asociados al concepto.

“Las actas del Concilio Nacional están impresas, habiéndolas recogido un taquígrafo, es decir, un hombre que escribe tan veloz como se habla, arte conservado en Inglaterra, que antiguamente usaron los romanos y acababa de perfeccionarse en Francia, donde aún se diversificó con notas musicales y de otras maneras, como también se comenzó a practicar la pasigrafía. O arte de entender lo que se escribe con cualquier lengua, sin entenderla […] que llegó a perfeccionarse en Prusia con muy pocas cifras.”

Servando Teresa de Mier, Memorias. Un fraile mexicano desterrado en Europa, Trama Editorial, Madrid, 2006 (circa 1818), p. 75

viernes, 28 de marzo de 2008

Maquinarias individuales: pantallas e interfaces

Con la pantalla ganando su propia independencia de la televisión, como ocurrió gracias a los videojuegos, el ordenador comenzó a ser bastante más “personal” a principios de los años 1980. La llegada de una organización ergonomista de la relación con el ordenador vino sobre todo gracias a la pantalla y al ratón. El monitor exclusivo del PC individualizaba la relación entre máquina y usuario, pero sobre todo fue el ratón quien hizo al ordenador un instrumento de uso individual. El ratón nos permite navegar y hacer extensiva una coordinación cerebro, brazo, espacio virtual que hace única la experiencia y sólo responde al individuo usuario. Como ha indicado Steven Johnson, la metáfora del escritorio en la pantalla es por definición un sistema monádico: pertenece a la esfera de la percepción y de la psicología individual, y es por eso que se hace tan difícil pensar el PC en términos más comunales, más sociales.

Las primeras imágenes en movimiento proyectadas sobre pantallas producidas por medios mecánicos y con voluntad de sistematización simbólica fueron las fotocinematográficas. El cinetoscopio de Edison (1894) era un aparato de visión individual con un pequeño visor sobre el que se agachaba el espectador para ver pasar las imágenes: un paso definitivo en la nueva percepción visual que los estereoscopios y la fotografía habían abierto poco antes. El estereoscopio (Wheatstone, 1851), aparato con dos visores a través de los cuales se ven diapositivas distintas de un mismo objeto creando la sensación de una imagen única, puede ser considerado el primer ejemplo de la combinación entre nuevos conceptos de novedad, estilo de vida y penetración comercial. En los tres primeros meses se vendieron en la Gran Bretaña 250.000 ejemplares. Esas dos pantallitas, que se colocaban muy cerca frente a los ojos, aislándolos del entorno, creando un marco negro alrededor de la imagen, que no se movían cuando uno caminaba, dieron pie a un fabuloso negocio de placas estereoscópicas y de mundos al alcance de la mano. Baudelaire, nada amigo del naturalismo en la representación, veía el estereoscopio como un agujero negro que “absorbía millares de ojos ávidos que se inclinaban sobre sus mirillas como sobre los tragaluces del infinito” .
Una nueva cultura visual estaba naciendo. El mundo se presenta a los ojos dentro de un espacio visual acotado y transiluminado mecánicamente. La pantalla se convertía en el vehículo fundamental de transmisión. El cine y la televisión han sido los modelos preeminentes de la relación entre percepción y pantalla durante todo el siglo XX: una pantalla inmóvil que ofrece contenidos de forma estandarizada: un lugar de visión, no de acción. La relación es unidireccional y es espectador resta pasivo. Pero con los años, y gracias a la paulatina portabilidad de los aparatos, la fusión de diversos formatos, y la progresiva interacción individual ofrecida por los medios radiodigitales, la pantalla se ha transformado enormemente, tanto en tamaños como en las consideraciones visuales y productivas de su función. La pantalla actual es un espacio integrado de transmisión y producción, en donde la consulta de datos y el acceso a servicios, los menús y las opciones se superponen a las imágenes: las pantallas táctiles convierten directamente la pantalla en superficie. La televisión interactiva y el ordenador se han convertido en espacios en los que se trabaja y en donde uno se divierte o informa.

La pantalla resume la nueva herramienta digital: porque en ella ocurre nuestro trabajo y el resultado de nuestro trabajo. Las leyes fundamentales de la producción en cadena del capitalismo parecen alcanzar una especie de paroxismo: como si se hubiera producido una implosión, revelan una completa desorganización, pero la fábrica queda igual. La diferencia es que los trabajadores se mueven entre todas las máquinas. No se trata de que el trabajador no sepa del sentido final de lo que hace, sumido en una hilera de máquinas poniendo clavos en serie, sino que el sentido es abierto porque el acceso es común. Y la cercanía y movilidad situacional que proporciona el ordenador lo hizo todo un poco difuso. En la gestión de ese nuevo espacio de relaciones, el sentido final de tu trabajo eres tú. Y en ti cae toda la responsabilidad. Que se lo digan a cualquier oficinista. No lo pueden decir igual los paletas: no es tan fácil la “responsabilización” personal a pie de obra.

La pantalla es respecto al ordenador personal lo que los números o las manecillas respecto al reloj: sin ellos, el tiempo seguiría siendo cosa de expertos en arena o una simple entidad abstracta. Las ruedecillas dentadas en el interior de un reloj no están ahí simplemente para dar la hora, sino para que la hora se presente simbólicamente a través de los movimientos de unas varillas en una esfera. Piensen hasta qué punto la imagen organizacional de la esfera con dos palitos y 12 números equidistantes no es ya “el tiempo” mismo. De la misma manera, la pantalla hace visibles los procesos de la máquina, convirtiéndolos en un lenguaje comprensible y dialogante que a su vez comienza a organizar nuevas situaciones siempre en crecimiento, siempre por adhesión, por adherencia. La necesidad del diálogo lleva intrínseca la búsqueda de un sentido social de la tecnología, pero que al sistematizar, impone estándares únicos de relación. Y por ello, no estaría de más empezar a pensar en el Collective Computer y no tanto en el PC.

En la pantalla, todas las matemáticas, la ingeniería electrónica, las grandes complicaciones técnicas desaparecen para reaparecer convertidas en símbolos, reducidas a palabras o iconos, parpadeantes a la espera de nuestro próximo paso. Es la ventana que da acceso. Toda la investigación en electrónica y cálculo matemático no hubieran podido crear el PC por sí mismos. Necesitaban socializar la computación. ¿Qué relación que no fuera experta era posible con un ordenador que se expresa por medio de lucecitas rojas, que habla sólo mediante una impresora y que recibe la información a través de montones de tarjetas perforadas? ¿Cómo podía convertirse un engorro así en lo que después significó el ordenador personal? Las bases de la computación moderna se fijaron ya en los años 40 y 50, gracias a las aportaciones de gente como Alan Turing o John von Neumann -siempre bajo patrocinio militar-, pero fue la búsqueda de un método de comunicación con la máquina la que precipitó, a principios de los años 70, la realidad de un ordenador que decía “hola”. Ese saludo era producto de muchas cosas y de muchas manos. De la misma manera, que el espacio en donde se expresaba -la pantalla-, y la prótesis que nos representa en el universo de la máquina –el ratón- eran a su vez resultado de muchas otras. Analizar sus biografías puede revelarnos datos interesantes sobre importancia de los usos y necesidades de cada momento en la forma que ha ido adquiriendo la computadora “personal”.

La televisión ha sido el medio en el que la pantalla ha sido más servicial en el siglo XX. Su ubicuidad, su inserción en el entorno cotidiano de la gente (en forma de mueble, como en los años 50 y 60, o asociado a una estética tecnófila, como ocurre en la actualidad), su mejora desde una visión lateral y la rápida adaptación al color (1954), hizo del televisor la metáfora adecuada de un espacio en el que el usuario deposita buena parte de su tiempo y de su confianza (7 horas y media de “atención discontínua” frente al televisor en los EEUU, 5 horas en España en el 2002). Desde 1974, el 97% de los hogares de los EEUU tienen televisión, y desde 1988, hay más de dos receptores de media en cada casa. Los principales países europeos alcanzan la cifra del 92% de penetración televisiva doméstica en 1986.
Con el radar (Radio Detecting and Ranging), desarrollado durante la Segunda Guerra Mundial, la posición de un objeto queda determinada por una señal electrónica en un monitor redondo, cuyo espacio visual está regido por unas coordenadas espaciales, todas ellas dispuestas alrededor de un punto central que es la posición de la antena de radio. La percepción producía una imagen en la pantalla, un resplandor y surgió un lugar de estrategias, simulaciones y cálculos. La información deviene un actor visible en la pantalla. Nuestras acciones sobre el objeto serán percibidas también sobre la misma. Esa posibilidad de interacción que el radar ofrecía llevará rápidamente a los ingenieros a trabajar en joysticks, lapices ópticos, para llegar finalmente al ratón. Pero, al mismo tiempo, la asociación entre la pantalla y el seguimiento de lo lejano, que tanto recuerda a las primeras ideas de Galileo frente a las estrellas reducidas a símbolos perseguibles en un cristal, quedará aún más acentuada gracias a los usos de observación y vigilancia de las pantallas, en especial gracias al radar. De ahí que llamemos monitor a la pantallas de nuestros ordenadores.

Vale la pena recordar de nuevo a Douglas Engelbart. Mientras esperaba la desmovilización como técnico naval de radar en 1945, poco después de acabada la guerra, leyó en una revista un artículo de Vanevar Bush, “As We May Think”. De vuelta en casa, continuó con su experiencia con el radar como ingeniero eléctrico. Años después, todas esas horas intentando discernir las verdaderas amenazas representadas por pitidos virtuales en pantallas de radar se transfiguraron en nuevos modos de información y comunicación: “Comprendí que si las computadoras te pueden mostrar la información en papeles impresos, también lo podrían hacer en pantallas. Cuando ví la conexión entre una pantalla –como la tele- un procesador de información y un medio para representar símbolos a una persona, todo se removió. Me fui a casa y dibujé un sistema en el que las computadoras dibujarían símbolos en la pantalla y en donde yo podría navegar a través de espacios de información diferentes con mandos y botones y mirar palabras, datos y gráficos de diferentes maneras”.

En la era de las primeras grandes computadoras, como el ENIAC (1944), EDVAC (1945), UNIVAC (1947), y las series de IBM de los años 50 y 60, la forma de introducir órdenes y extraer resultados era mediante tarjetas y cintas perforadas. Botones verdes o rojos poblaban unos tableros parpadeantes que daban cuenta de la actividad de la máquina. Con la llegada del radar y su aplicación en las señales de actividad eléctrica de los relés y válvulas de las computadoras, la información queda visualizada: el lenguaje de la máquina establece una cierta relación visual con el usuario a través de un nuevo alfabeto, que acabará conformando un interfaz.

En los años 60, ingenieros como John Licklider intentarán “casar los elementos humanos y electrónicos". En 1963, Ivan Sutherland realiza Sketchpad, un equipo con lápiz óptico fijo en la mesa que al moverlo en una dirección activaba acciones en un monitor conectado a una computadora, utilizando además un primer sistema con interfaz simbólico, con manipulación directa de símbolos gráficos. Un operador podía crear gráficos directamente en la pantalla al tocarla con un lapiz de luz. Al cambiar algo en la pantalla, también se cambiaba en la memoria del ordenador. La pantalla en tiempo real se hacía interactiva: “Vivimos en un mundo físico con cuyas propiedades nos hemos familiarizado con el tiempo y que podemos predecir y observar. Pero nos falta la misma familiaridad con conceptos no perceptibles en el mundo físico. Es en la ventana electrónica en donde mirar el maravilloso mundo matemático”.

Aunque en 1965 se desarrolla el primer trackball, también para el control de tráfico aéreo, será en 1967 cuando Doug Engelbart invente el "ratón". Engelbart recuerda que se inspiró en un aparato llamado "planímetro", que un ingeniero deslizaba sobre un gráfico para calcular el área bajo una curva. Entre muchos ingenieros este dispositivo compacto era tan común como una regla de medición. El ratón proporcionaba un método práctico y superior de interactuar con un ordenador que no deformara las capacidades simbólicas de razonamiento del usuario. El modelo más evidente era el automóvil, cuyo sistema presenta al conductor una conexión clara y directa entre girar el volante y cambiar la dirección, pisar el pedal del gas y acelerar, pisar el pedal del freno y reducir velocidad. Los automóviles -y el ratón- usan una coordinación ojo-mano, en la que los humanos son muy hábiles a la hora de leer información. Engelbart (o Kay, que desarrollará la idea de escritorio) sostenían por entonces que “mediante el uso de una computadora y una terminal de video para componer documentos, sería posible ensanchar el entero proceso de composición escrita”. Alan Kay, por su parte, comenzó a tratar la pantalla como un escritorio y a cada proyecto como un papel sobre el escritorio.

Una vez integrado el hardware del teclado, la pantalla, y el ratón, todo ello se ha de hacer expresable visualmente. La búsqueda de un lenguaje gráfico que sea capaz organizar información que depende de otra, con el volumen que eso conlleva, será el próximo paso en la creación de un interfaz que “justifique” socialmente y comercialmente la idea del ordenador.

Los ingenieros de Xerox Parc, empezaron a desarrollar ordenadores a principios de los años 1970 con la intención de adelantarse a ciertos temores propios de una empresa de fotocopiadoras frente a la creciente interconexión de dos medios distintos: las computadoras extraían su información a través de impresoras. Asignar el número de copias a imprimir en el programa era una posibilidad que debió aturdir a los ejecutivos de una compañía de fotocopias. Xerox adoptó una nueva estrategia que le llevó en 1973 al Xerox Alto, un ordenador de mesa, con teclado y pantalla. El monitor era vertical para corresponder con el formato real de una página: la idea de espacio virtual aún no había cuajado. XEROX se había basado en las investigaciones de Licklider y Engelbart. Además de utilizar un ratón y ventanas, el Xerox Alto disponía también de una pantalla "bit-mapped", donde cada elemento gráfico podía ser manipulado. Esto permitía al usuario escalar cartas y mezclar textos y gráficos en la pantalla.

En 1979, Apple empieza a trabajar en un ordenador llamado Macintosh. Proyecto de Jef Raskin, éste propuso un ordenador que unificara texto y gráficos de la misma manera que ya se había investigado en Xerox Parc. Apple había presentado el Apple Lisa, que ya disponía de menús de persiana y menú de barras. Era caro (10.000 dólares) y las ventas no fueron espectaculares. El siguiente movimiento fue la contratación de algunos ingenieros de Xerox Parc, que se llevaron consigo el invento del ratón. En 1984, Apple presenta el Macintosh en un anuncio de tv durante la gran final de fútbol, en el que una chica rubia lanza un martillo a una gran pantalla de corte orwelliano, y en la que una inmensa cara adoctrina a unas masas aplastadas, en clara referencia a IBM. El ordenador se vendía por 2.500 euros. Constaba de pantalla de alta resolución en blanco y negro, teclado, ratón y 128K de memoria. La elegancia del sistema operativo de Mac fue un gran éxito. Su combinación de simplicidad, integración e ingeniería práctica era extremadamente rara en aquel momento. Cuando un archivo se abría o se cerraba, su símbolo se contraía o se espandía, lo que se reveló muy agradable entre los usuarios. Microsoft enseguida vió el potencial de un interfaz así. Un año más tarde Apple presentaba un rudimentario sistema de trabajo en red, llamado AppleTalk, inspirado en sistemas de transmisión por radio (a través de eter) entre las islas Hawai.
Mientras tanto, la miniaturización de los aparatos y su consiguiente portabilidad llevó consigo nuevas investigaciones sobre tecnologías de visión aplicadas a las pantallas de múltiples dispositivos: ordenadores, salpicaderos de automóvil, equipos electrónicos de filmación y sonido, relojes, calculadoras, videojuegos, ascensores, etc..

En 1961, se comercializa por primera vez un LED (Light Emitting Diode) que combina tres elementos primarios: el galio, el arsénico y el fósforo. Las calculadoras y los temporizadores serán las primeras máquinas en recibir esas pequeñas pantallas en las que aparecen unos pequeños filamentos, cuya iluminación selectiva indica un número. Los LED serán revolucionarios en la medida en que permitirán el desarrollo de la comercialización masiva de artilugios, de fácil comprensión y visualización para el usuario.

En 1970, Sharp incorpora una pantalla LCD (Liquid Crystal Display) en una de sus calculadoras, y Optel Corp en un reloj electrónico en 1971. El proceso hacia el LCD parte de las investigaciones realizadas por el austriaco F. Reinitzer en 1888 que le llevaría a descubrir los cristales líquidos. Las aplicaciones de las pantallas de cristal en la industria tecnológica han sido ingentes y también enormemente influyentes en la comercialización de videojuegos, ordenadores portátiles y para todo tipo de despliegues en pantalla. Los despliegues LCD usan mucha menos corriente que los LED o los modelos fluorescentes y permiten que las calculadoras de bolsillo funcionen durante meses (y no durante horas, como los LED) sin recargar o cambiar las pilas. En 1983, Toshiba presenta el primer ordenador portátil con pantalla de LCD. Y también es gracias al LCD que Nintendo presenta el Gameboy en 1989. El LCD, sin embargo, es difícil de ver desde un ángulo lateral.

Eso empezará a corregirse parcialmente en 1961, cuando el norteamericano P. Weimer inventa el TFT (Thin Film Transistor), que además de ofrecer mejor calidad de imagen, tenía una mayor velocidad de actualización, lo que reviste especial importancia en las aplicaciones multimedia que usan secuencias de video animado y en los dispositivos de telecomunicación móviles. El TFT es el actual estándar de las pantallas planas en la mayoría de aparatos de reproducción e interacción.

Aunque los estudios sobre la posibilidad de actuar directamente en pantalla ya estaban apuntados con el desarrollo de los radares y los lápices ópticos, será en la década de los 70 cuando la pantalla táctil comenzará a ser una tecnología realista. En 1971, Sam Hurst, fundador de Elographics, crea un primer sensor táctil en pantalla. En 1974, se inicia una cierta comercialización y en 1977 se patenta definitivamente como la conocemos hoy: lo primero, en el cajero automático.

Estándar, portabilidad, expansionismo

“Lo que pasa es que esa máquina no se cansa”, se quejaba un lugareño congolés en 1883, cuando no podía perseguir, harto ya de remar, los barcos a vapor que remontaban el río Congo.

La portabilidad occidental es expansionista: pero ahora llevada a los cuatro confines del mundo individualmente. La unificación de protocolos, estándares e interfícies en la utilización global de las TCI portátiles hace de los usuarios los personalizados caballos de Troya de un sistema bulímico y no poco anárquico de información, cuyo principal enemigo son sistemas que no reconocen los propios. Y a los que se ataca sin piedad: “El motor y la radio son el alma de nuestras divisiones de turistas, que se entrenan o simulan la guerra relámpago”.

El interfaz es el imán, el polo que atrae y condensa toda nuestra comunicación. Y a su alrededor crea sistema, urbaniza y estructura. Kittler ha constatado que “la digitalización de la información elimina las diferencias entre medios individuales. El sonido y la imagen, la voz y el texto se reducen a efectos de superficie, conocido por los consumidores como interfaz”. Vivian Sobchack ha analizado esta cultura del interfaz a la vista de que “la televisión, los videocassettes, los grabadores y reproductores de video y los ordenadores personales, todos forman un sistema representacional incluyente cuyas varias formas se “interfacializan” para constituir un mundo absoluto y alternativo que incorpora al espectador/usuario a un estado descentrado espacialmente, debilmente temporalizado y casi incorpóreo”. Enzensberger, ya hace años, visualizó también el sistema del interfaz como un proceso hacia una total unificación: “Satélites de noticias, televisión en color, televisión por cable, cassettes, cintas de video, videograbadoras, videofonos, estereofonía, técnicas láser, procesos electrostáticos de reproducción, impresión electrónica de alta velocidad, máquinas de composición y aprendizaje, microfichas de acceso electrónico, impresión por radio, ordenadores a tiempo compartido, bancos de datos: todos estos nuevos medios están formando constantemente nuevas conexiones tanto entre ellos como con medios más antiguos como la impresión, la radio, el cine, la televisión, el teléfono, el teletipo, el radar, etc. Todos ellos están claramente uniéndose para formar un sistema universal”.

En la cultura extrema de la conectividad, la realidad se convierte en un catálogo apologético de la totalidad de los objetos tecnológicos: “al consumir un objeto, uno los consume todos”, ha señalado Richard Stivers, porque sólo en uno se reflejan todos los demás, gracias a la unificación proporcionada por el interfaz. Tampoco es ajeno a esto el hecho de que el proceso de concentración y estandarización haya llevado a los usuarios a concebir la experiencia del consumo en términos homogéneos, como perspicazmente ha intuido el historiador Brian Winston. La homogeneización producida por la unificación de estándares conlleva un rechazo radical de los usuarios de líneas que no sean continuas, como cuando Coca-Cola tuvo que suspender su intento de cambiar el sabor de su producto, al ver cómo auténticas masas se echaban a la calle para protestar. No deja de ser interesante observar cómo se activan actitudes más vinculantes, socialmente hablando, sólo en el momento en que los estándares son puestos en peligro. Tampoco es baladí que eso ocurra, casi en exclusiva, en el dominio comercial.

El estándar y el interfaz son algo más que simples espacios y pantallas de comunicación. Son en realidad una técnica social, una norma en las relaciones políticas y culturales. Jacques Ellul habló en los años sesenta de cómo la técnica integra a la máquina en la sociedad: “Construye el tipo de mundo que la máquina necesita e introduce orden donde el traqueteo incoherente de la maquinaria amenaza ruina. Clarifica, organiza y racionaliza: hace en el dominio de lo abstracto lo que la máquina hizo en el dominio del trabajo. Es eficiente y aporta eficiencia a todo.” El interfaz es la grasa que hemos construido para que las máquinas adopten un sentido lógico en la mentalidad social; incluso para que el espectáculo sea vivido como “espacio social” al permitir que los códigos de interpretación sean percibidos como horizontales e integradores.

Además, el lenguaje digital, principal impulsor de la importancia moderna del interfaz, es imperativo, esencialmente por causas de “seguridad”. Todo lo que no es digital debe hacerse digital: “Mientras más complicado sea un aparato manufacturado por los métodos de ingeniería tradicionales, sus fallas serán más imprevisibles, catastróficas y difíciles de solucionar”, ha intuido el escritor mexicano Naief Yehya. La tecnología analógica está comenzando a ser percibida en términos problemáticos pues puede llegar a cercenar la fluidez comunicativa dentro del sistema. La naturaleza de lo “analógico” se ve como ralentizadora, puesto que no crea a su alrededor las “necesarias” condiciones orgánicas de crecimiento y progreso. El desplazamiento de la tecnología analógica a la digital en el ámbito de los móviles así lo confirma. Gilles Deleuze propuso la metáfora del “filum maquinal” como el proceso de autoorganización por el que los elementos del universo alcanzan un punto crítico y comienzan a cooperar para formar una entidad de más alto nivel. Yehya, siguiendo esa vía, apunta una idea fundamental en este sentido: el proceso de organización de la comunicación actual se percibe como orgánico, natural. Los elementos simples se unen, en un proceso de comunión, para producir organismos más complejos, como si de biología tratáramos. Aquellos elementos que no facilitan esa complejización deben ser separados. La visión de una evolución tecnológica darwiniana basada en una relación orgánica entre los distintos formatos y medios (solapándose, pasándose el testigo, interfacializándose) comporta una total biologización del discurso maquinal. No es extraño, pues, que el descubrimiento del ADN (ácido desoxirribonucleico) –el principal hallazgo de los años sesenta- creara lo que ha venido en llamarse el “paradigma de la información”; la información como principio de organización por sí mismo: “El código genético fue el código, y la transmisión se convirtió en la manera preferida de enfocar todo tipo de información”. El término “paradigma”, de hecho, se estableció como estándar en el ámbito científico desde que en 1970, el filósofo científico Thomas Kuhn utilizara el término para describir “aquellas realizaciones científicas universalmente conocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica” . El propio Kuhn ya intuyó las potenciales analogías del “paradigma” en el desarrollo tecnológico de su momento.

En este ambiente de inclusividad, no sólo se acaba juzgando lo que es operativo o no en función de la necesaria dependencia de los factores del sistema, sino que también se condena el propio concepto de autonomía, algo que les guste o no a los tecnófilos, sigue suponiendo la principal traba para un mayor desarrollo del imperio. Porque la historia también nos muestra que no siempre la creación de estándares ha sido posible, y que existen posibilidades de sustraerse a ello. En 1875 se creó en París la Agencia Internacional de Pesas y Medidas. Sin embargo, sigue habiendo muchas divergencias en el uso de medidas en diferentes países y regiones. La encendida cuestión de los diversos anchos de vía ferroviaria llevó a muchos países, España entre ellos, a adoptar estrategias nacionalistas respecto al tema, como es el caso de la conducción automovilística por la izquierda en Gran Bretaña. Los continentes siguen utilizando diferentes voltajes, tomas de luz distintas, etc. La batalla continental por el estándar de televisión ha dado lugar a múltiples sistemas, incompatibles entre sí: PAL, NTSC, SECAM, etc. El monopolio de Microsoft está siendo contraatacado día a día. El inglés, aunque imperante, es seguido de cerca por otras lenguas que están recibiendo cada vez más atención internacional como el castellano o el árabe; etc.

Los casos son ingentes; tantos que, a primera vista, parecen poner en solfa la tendencia imperativa de los estándares. Indudablemente, es un espejismo dado el evidente crecimiento exponencial de los códigos comunes en todo el mundo. Sin embargo, el mantenimiento de muchos de esos “casos” nos indica hasta qué punto las tan cacareadas líneas de globalización encuentran más dificultades para expansionarse de las que habría que suponer. Las estrategias de marketing (y la presión nacionalista) tienen mucho que decir en la creación de esas barreras: con ellas, se protegen mercados de posibles invasiones de la competencia (las “regiones” de los formatos de DVD; los sistemas televisivos, etc). Pero, ¿hasta qué punto no podemos considerar algunos de estos frenos a la universalización de sistemas como simples resultados de la voluntad de grupos sociales y culturales en mantener la identidad cultural frente al torrente global? ¿Por qué no considerar la diferencia de voltaje eléctrico de la misma manera que percibimos las diferencias gastronómicas o lingüísticas entre diversas culturas y sociedades? A menudo, la obsesión por la estandarización de los sistemas de comunicación lleva a aculturizar los trasfondos sociales que les dieron vida. El entusiasmo contemporáneo por la conectividad parece haber convertido en anatema los sistemas locales o territoriales: no se busca la creación de interfaces, sino que se imponen unos determinados.

La persecución del interfaz integrado promete un espacio perfecto en dónde modelar todas las experiencias posibles, sin distinción alguna de países, culturas o clases. Sin embargo, para construir esa suerte de “espacio cero”, se aplaude como necesaria la erradicación de todo vestigio de lógica cultural localista, aquellas que existían en los tiempos pre-portátiles; aquellas que todavía hoy existen, “entorpeciendo” una verdadera comunicación integrada.
Para evitar esos inoperativos frenazos en la consecución de la ubicuidad y de la movilidad dentro de un mundo plenamente colonizado, los poderes realizan esfuerzos continuados de vigilancia, creando suprasistemas que como un paraguas universal ofrezcan al individuo la posibilidad de operar en dónde sea y bajo cualquier circunstancia. Así, en 1978, el ejército de los EEUU lanzó al espacio el NAVSTAR (Navigation System with Timing And Ranging), el primero de una serie de 24 satélites que, junto a estaciones de recepción terrestre, formarían un sistema de establecimiento de posición a nivel planetario (latitud, longitud y altura) con un margen máximo de error de 20 metros. Desde el lanzamiento en 1994 del último satélite previsto, el sistema es conocido como Sistema de Posición Global o GPS. Todos los satélites son controlados en la base aérea de Falcon, Colorado. No será hasta 1980 que se permitió el acceso de la industria civil a algunas de las aplicaciones GPS, como la telefonía movil y la cartografía. Al GPS, le seguirían un miriada de satélites de los EEUU, Europa y Japón, prácticamente dedicados en exclusiva a las comunicaciones civiles.
El espectáculo de la integración acaba convirtiéndose en una estética, en una tecnoestética: “Todo el mundo vé el mismo mundo alterado, experimenta el mismo entorno total. La fantasmagoría asume la posición de un hecho objetivo y natural: se convierte en norma social. La adicción sensorial a una realidad compensatoria acaba siendo una forma de control social”. Control social, que no sólo se observa en el ámbito de los medios de comunicación de masas, sino en la propia estructuración de un sistema laboral globalizado y supuestamente idílico.

La evolución de los estándares en los sistemas de las máquinas en todo el mundo hace de sus habitantes seres potencialmente ubicuos: pueden desplazarse donde quieran, plenamente sincronizados: pueden buscar nuevos horizontes personales y laborales; pero también pueden ser desplazados a donde sea porque saben utilizar las máquinas. El caso de la explotación laboral por empresas de tecnología es un buen ejemplo de cómo el conocimiento de las técnicas de ensamblaje de los trabajadores locales ha generado el desplazamiento de la industria hacia otros continentes en busca de mano de obra barata; o ha provocado las recientes migraciones internas en el Sudeste asiático, en México, en Brasil, o en Marruecos a una escala más reducida. Allí, las “maquiladoras”, o empresas de ensamblaje de los componentes ya fabricados procedentes de las matrices norteamericanas, europeas o japonesas, han supuesto gran parte de la producción económica de la década de los 90. La movilidad ofrecida por una sociedad en la promesa de una constante experiencia espacio-temporal ideal, trepidante y fantasmagórica, es asumida por muchos trabajadores como la fragilidad de un tiempo laboral desarraigado y miserable.

La seguridad del estándar

En una cultura que se debate entre el derecho a la privacidad y la publicidad de la misma, y frente a la ausencia de canales de construcción social, la seguridad de los medios (y del sistema vinculado a/por ellos) ha alcanzado grados de paroxismo. Los valores de movilidad y portabilidad han quedado directamente afectados por la sugestión de la inseguridad y la búsqueda de arquitecturas y protocolos de protección.

La portabilidad tecnológica ha sido posible gracias a la miniaturización de los aparatos y a la digitalización y satelización del espacio radioeléctrico mundial durante los últimos veinte años. Nuestros móviles, portátiles, tarjetas de crédito, archivos internet, etc, se mueven en un espacio con plena cobertura. Esa disponibilidad de servicios instantáneos en nuestros aparatos portátiles nos hace percibir la movilidad únicamente en términos fetichistas e ilusionistas de la máquina, integrada en nosotros de una manera casi protésica. Sin embargo, nos olvidamos que la movilidad actual también responde a un proceso integracionista en los lenguajes: el espacio externo se ha hecho un lugar sugerente porque da seguridad. Esa seguridad se basa en que todas las máquinas utilizan el mismo lenguaje y admiten los mismos formatos. Un individuo móvil fija gran parte de su esquema de seguridad en la tecnología; en la certeza de que, esté donde esté, conocerá las reglas de uso que le permitirán negociar las situaciones de riesgo. Los interfaces por tanto deben estar unificados: si no fuera así, la movilidad sería una inutilidad productiva. Si no fuera así, no habría tantos turistas en medio mundo (715 millones en el año 2002).

En una sociedad cada vez más conectada y más dependiente de su propia conectividad como paradigma de seguridad, surgen a menudo paradojas que retratan la sensacional transformación en el funcionamiento de nuestras relaciones sociales y políticas. Una de ellas procede del afincamiento generalizado del protocolo como mecanismo regulador de nuestra accesibilidad y como dispositivo fundamental de nuestra seguridad y de la del sistema.

Con la aparición de Internet, determinadas fórmulas de identificación y acceso propias del entorno militar han ido consolidándose paulatinamente en la esfera civil. Ciertamente, el desarrollo de Internet ha ido evolucionando del concepto altamente centralista del C+C (Command and Control) hacia una red formada por múltiples redes distintas, independientes las unas de las otras, pero unidas gracias a lenguajes "compatibles". Así, la noción de compatibilidad ha sido uno de los argumentos líderes en el crecimiento de la red y, en la práctica, una obsesión de pensadores, ingenieros, industriales, políticos y usuarios de Internet. En realidad, el sostenido auge de Internet desde principios de los años 90 se debe casi en exclusiva a la búsqueda denodada de protocolos, de llaves, que puedan vincular con gran seguridad y sin pérdida de datos multitud de sistemas y lenguajes informáticos, algunos de ellos muy dispares entre sí. Al fin y al cabo, el mismo nombre de Internet refleja que se trata de un sistema "entre redes". Se trataba pues de hallar un estándar que sirviera de lenguaje común.

La carrera por esos estándares comenzó desde el momento en que la NSF (National Science Foundation), el organismo oficial del gobierno norteamericano para la legitimación de aplicaciones científicas, unificó diversos centros de computación en 1985, pero sobre todo cuando permitió el uso comercial de Internet en 1991. Con anterioridad, la investigación sobre lenguajes de programación ya había abierto buena parte del camino, pero ésta estaba sobre todo encaminada a sistemas de escritura informática lo más útiles posible y no tanto a facilitar lenguajes comunes entre distintos sistemas.

La consecución de protocolos, de lenguajes universales que permitan conectar fuentes dispares, es una premisa que filósofos, científicos y humanistas han remarcado prácticamente desde el Barroco. Leibniz fue el primero en buscar un sistema de comunicación simbólica que se adaptara a cualquier modelo lingüístico existente. Lo llamó Characteristica Universalis: "Mediante este lenguaje universal, cualquier información del tipo que sea podría grabarse sistemáticamente en símbolos abstractos con lo que cualquier problema de razonamiento podría ser articulado y resuelto." En 1867, Melville Bell, padre de Alexander Graham Bell, uno de los principales inventores del teléfono, desarrolla el Visible Speech, un alfabeto universal capaz de codificar unitariamente sistemas diversos. Y en 1943, Noam Chomsky, vinculado en aquellos días a la investigación militar en el Laboratorio Psico-Acústico de la Marina de los EEUU en Harvard, propone una Gramática Universal con el mismo fin.

Indudablemente, la persecución de esos estándares que hicieran compatibles lenguajes diferentes ofrecía la posibilidad de crear un sistema fluido de comunicación e interacción, pero a la vez abría la caja de los truenos en la medida que el uso de un lenguaje universal ponía sobre la mesa graves cuestiones de seguridad ya que cualquiera que dispusiera del código simbólico pertinente podía introducirse sin más en una vasta y a menudo delicada red de información. He ahí el inicio de una paradoja antes apuntada, que en nuestros días tiene ya un carácter central.

Los protocolos nos sirven para movernos en la red con inmediatez y con la seguridad de que las traducciones funcionan. Protocolo procede del griego protokollon, que designaba a la hoja adherida a la portada de un manuscrito y que contenía titulares o pequeños resúmenes de los contenidos del texto. De esta manera, se facilitaba la búsqueda de los temas y ayudaba a la comprensión de escrituras a mano de difícil lectura. El protocolo también ha sido tradicionalmente entendido como el conjunto de regulaciones y acuerdos que los países o instituciones se han dado entre ellos para "corregir" las diferencias de costumbres y usos culturales y diplomáticos. Es una manera de asegurarse que no habrá malentendidos y de agilizar las relaciones oficiales.

De la misma forma, el protocolo en el actual entorno comunicativo se define como el "conjunto de normas que permiten estandarizar un procedimiento repetitivo" entre sistemas informáticos . Entre los protocolos más conocidos por el público, destacan aquellos directamente vinculados a Internet y a los sistemas combinados de telefonía por satélite como el http o el wap. Todas estas llaves nos permiten vincularnos a una red común y convertir los diferentes sistemas en unos códigos que todas las máquinas puedan leer e interpretar.

Ahora bien, parece claro que cuando los diferentes sistemas convivían separadamente, sin protocolos comunes, el grado de seguridad propia era mucho mayor, dado que las fronteras entre unos y otros eran mucho más difíciles de cruzar, aunque el precio a pagar fuera la falta de conectividad y una cierta autarquía. En la actualidad, la situación es completamente opuesta: la unificación ofrece ilimitadas posibilidades de intercambio y distribución de información, pero los riesgos sobre la seguridad de un sistema integrado por protocolos se intuyen enormes. Esto es, el establecimiento de llaves comunes lleva automáticamente a generar procesos complejos de encriptación y codificación que aseguren que la globalidad de las redes no suponga la destrucción de éstas. El interfaz, el estándar son la garantía de ello.

La seguridad tecnológica se basa en que cada uno de nosotros disponga de su propio código de acceso, lo que además nos legitima como ciudadanos electrónicos de pleno derecho. Pero al mismo tiempo nos parece que la gestión de esas contraseñas por parte de las empresas del sector puede infringir gravemente nuestro derecho a la intimidad y seguridad personal. Otra de las contradicciones de esta nueva frontera membranosa entre lo público y lo privado. Sin embargo, el afianzamiento de los interfaces interactivos desde los años 80 ha supuesto un cambio importante en la percepción del necesario entorno de seguridad que se pretende crear con las máquinas. Ello sin duda se debe a una aplicación de la interactividad cada vez más simple en su uso pero más amplia en sus prestaciones. La máquina responde, creándose en definitiva una relación familiar, personal, fiable. La trama de confianza y seguridad que han urdido los interfaces entre usuario y máquina es enorme, y condiciona sin lugar a dudas una percepción más global del fenómeno tecnológico.

La seguridad del usuario electrónico actual se basa en la reversibilidad: en la seguridad de que un error puede ser corregido. En los primeros interfaces comerciales de ordenador, desarrollados por Xerox y Apple a finales de los 70, la premisa fundamental de los psicólogos era que la reversibilidad (Sí-No-Cancelar) no sanciona directamente la ineficiencia o error del usuario sino que le amplia el espectro de seguridad de una manera pedagógica, a la vez que ayuda a entrenarle a la hora de proceder con la máquina. En el manual de interfaz de Apple Computers del año 1984 se lee: “Puedes animar a la gente a explorar tu aplicación mediante el recurso al perdón. Perdón significa que las acciones en el ordenador son generalmente reversibles. La gente necesita sentir que puede intentar cosas sin dañar el sistema; crear redes de seguridad para que la gente se sienta confortable aprendiendo y usando tu producto […] Avisa siempre a la gente antes de iniciar una tarea que cause pérdida irremediable de datos. Las cajas de alerta son una buena manera de alertar a los usuarios. Sin embargo, cuando las opciones se presentan claras y la respuesta es apropiada y pronta, aprender a usar un programa debería estar relativamente exento de errores. Esto quiere decir que cajas de alerta frecuentes son una buena indicación de que algo va mal en el diseño del programa.”

El usuario no siente ese constante Sí-No-Cancelar como algo molesto sino que lo acepta como algo fundamental, vinculado al alto grado de estima que tiene para él o ella la seguridad. La aparición de interfaces de ese tipo socializó a los usuarios en el nuevo dominio de relaciones digitales, evitando susceptibilidades y generando una confianza en la posibilidad de deshacer los pasos realizados hasta el momento. Es interesante advertir que la acción de guardar los datos en el ordenador, muchos lo llaman “salvar”; como si el entorno computacional fuera en realidad un oscuro camino lleno de trampas, a la manera de los videojuegos. Observemos el revelador comentario de un adolescente en el año 1983 tras su experiencia con un ordenador Sinclair: “El otro día, cuando estaba utilizando un procesador de textos, intenté salvarlo. Me había pasado toda la mañana tecleando. Empecé a las 8 de la mañana y acabé a la hora de comer. Con que hagas un solo error, ya es basura. Te da pánico. Es un asco teclear y me quise asegurar de salvarlo. Así que lo salvé todo en una cinta [cassette] sin apagar la máquina. Entonces llevé la cinta a la máquina de un amigo mio, para ver si podía descargarlo allí. Si era posible, entonces lo había hecho bien. Tuve suerte, porque no perdí esas ocho horas frente al teclado”.

En 1976, los ingenieros de los laboratorios Wang se dieron cuenta de que muchos usuarios de equipos de procesamiento de palabras estaban aterrorizados ante el hecho de perder el trabajo de todo un día tras pulsar inadvertidamente la tecla errónea. Y no eran sólo secretarias quienes se quejaban de tales acciones: en 1981, el ex-presidente Jimmy Carter perdió algunas páginas de sus memorias al apretar una tecla errónea en un ordenador Lanier de 12.000 dólares. Una llamada a la empresa llevó a ésta a elaborar un disco de utilidades que permitió a Carter recuperar los datos del disco duro original. Los ingenieros de Wang llevaron a cabo un diseño que hiciera que estos errores no pudieran ocurrir. El acceso a las órdenes se producía a través de una simple pantalla de menús. Años más tarde, el diseño de Wang sería conocido por el cliché de "user-friendly" (“fácil para el usuario”, o también de GUI, Graphic User Interface, o interfaz gráfico de usuario). Si el usuario se equivoca, ya es sólo un problema de su propia adaptabilidad y adecuación, no una cuestión de la máquina.

Todo el sistema del interfaz gráfico de usuario se basa en la idea de la consistencia. Los elementos deben ser consistentes entre ellos y en la manera en que los hacemos operar. Cuando una caja de diálogo aparece frente a nosotros en la pantalla del ordenador, en la que tenemos tres opciones a operar -SI-NO-CANCELAR-, si le damos a la tecla INTRO, por defecto activaremos la función SI. Esto es lo que significa consistencia: que en cualquier ordenador y en cualquier aplicación, sea de la marca que sea y con cualquier sistema operativo, la tecla INTRO significará SI. La consistencia es el meollo de la seguridad, de la reversibilidad y del estándar. Con la consistencia no solamente damos por más segura nuestra relación con el ordenador sino que supone la herramienta principal en el proceso de aprendizaje, de exploración y de expansión de su uso, porque aunque nos encontremos ante un programa nuevo, sabemos que hay una serie de acciones que son idénticas siempre: Ctrl+S, Ctrl+O, INTRO, etc.

Esa nueva actitud respecto a la gestión de la seguridad, en el sentido de que se requiere de una responsabilidad individual en la salvaguarda general del sistema, contrasta con la desaparición de la responsabilidad pública de esa salvaguarda. La paulatina extinción (privatización) de las políticas gubernamentales en el espacio público, en el dominio energético, en el mundo laboral, en la gestión de la solidaridad, etc., tiene como eslógan de cobertura la "activa responsabilidad personal" en este nuevo mundo desregularizado y atrapado en las no-leyes del mercado.

Un ejemplo obvio de esta situación es la aplicación y percepción del automóvil. La velocidad es el valor fundamental de nuestro sistema cultural y moral. Sin embargo, parecería lógico que velocidad y seguridad debieran darse de la mano para una verdadera operatividad social. Pero no ha sido así en el caso del coche. Hemos acordado entre todos que el valor de la velocidad se sitúa más alto en la jerarquía que el de la seguridad.

De entre todas las máquinas con finalidades civiles inventadas durante el siglo XX, el automóvil ha sido con distancia el ingenio que más vidas se ha cobrado. En España, mueren entre 75 y 100 personas en accidente de coche o moto cada semana . ¿A qué otra máquina se le permite causar la muerte de esta manera? ¿qué pensaríamos si los teléfonos móviles le quitaran la vida a 10 personas cada semana o cada mes o cada año, o que el uso de los ascensores alcanzara tal volumen de siniestralidad? Sobre el automóvil, nuestras sociedades han depositado una suerte de contrato con el mundo mecánico, un contrato de seguridad, incluso una especie de constitución, de carta magna. Los accidentes de tráfico, ocurridos desde el principio de la historia del coche, han continuado hasta nuestros días y jamás se ha puesto en práctica una política de restricción. El accidente representa el aviso público de los efectos de la ineficiencia del usuario respecto a la gestión de la máquina (y de la velocidad), y también la multa máxima -la muerte o las secuelas-, circunstancia que tiene carácter de ley, por lo definitivo.

Está plenamente establecido que la responsabilidad de un accidente de tráfico es siempre estrictamente individual. Es ahí en donde hemos fijado la variable de la seguridad. La posible ineficiencia social con las máquinas de los pasajeros que mueren en accidentes de autobús o de tren o de avión nada tiene que ver con sus muertes. Es por eso que ese tipo de accidentes despiertan mayor atención y cobertura informativa. Nos despierta más sentimientos, porque es injusto. Es una tragedia inmerecida para aquella gente, aunque un profesional -el conductor- pueda haber fallado. Los accidentes de coche se justifican moralmente porque la responsabilidad es precisamente individual. La propia libertad personal es el argumento que sostiene este modelo moral, y que podemos constatar públicamente en las imágenes publicitarias de coches. Libertad individual y velocidad quedan así casadas en el inconsciente. Y de paso, se asimila sin problemas el enorme número de bajas "colaterales" en las carreteras del mundo entero.

El teclado: el estándar y el individuo

El teclado de la máquina de escribir, que marcó un hito en la evolución de los interfaces, nos enseña cómo una tecnología patentemente obsoleta ha conseguido imponerse gracias a la fuerza del invidividuo. Los interfaces pueden venir diseñados por la industria, pero su razón final de ser, su real configuración es cosa de los usuarios.

En 1865, Christopher Scholes y su hermano, un profesor de escuela, diseñaron una máquina de escribir, siguiendo un modelo de cosmogonía empresarial: la “filosofía de las piezas intercambiables” en el marco de un entorno laboral en cadena que se extiende también al hogar. Isacc M. Singer ya las había aplicado con enorme éxito en la década de 1860 en su máquina de coser. Se trataba de construir piezas más que máquinas, de manera que éstas últimas no fueran más que un perfecto ensamblaje de diversas partes. La difusión y expansión del uso de este tipo de tecnologías aumentó considerablemente en un corto período de tiempo. Todas las máquinas eran la misma, sus partes eran intercambiables y fácilmente sustituibles sin afectar al resto del conjunto. Y sobre todo, todos los usuarios pasaban a ser el mismo. La máquina no hace distinciones ni prejuzga la habilidad de quien la maneja. El usuario es todos los posibles.

Los Scholes y un equipo de lingüistas analizaron cuáles eran las secuencias de letras más usadas , de manera que su organización en el tablero, con cierta práctica, facilitaba una trascripción veloz y una tipografía impresa que no estaba sujeta a los caprichos de la caligrafía. Sin embargo, pronto se vio que había que solucionar los problemas mecánicos que hacían que las teclas se quedaran pegadas. El resultado fue el teclado qwerty, que es la secuencia de las primeras letras en la hilera superior. Fue patentado en 1873.

El teclado qwerty nació para evitar el atoramiento de las letras, pero al mismo tiempo reducía el rendimiento real del usuario. En los primeros años tras la aparición de la máquina de escribir, las teclas que golpean el papel en el rodillo no eran visibles, por lo que a menudo, cuando se atoraban dos o más teclas, el usuario seguía escribiendo sin saber que estaba repitiendo la misma letra bloqueada. Para ello, Scholes alejó las vocales las unas de las otras, ya que eran éstas las letras más utilizadas, para que fuera más lenta la concatenación de la pulsación. Pero he aquí que 127 años después, cuando ya no tenemos ese problema frente al ordenador, seguimos utilizando el teclado qwerty.

Por tanto, ¿quién reacciona o fija el estándar? ¿es el estándar parte de un sistema ya dado, o por el contrario, la práctica cotidiana y la negociación van definiendo su evolución? En 1904 se convocó una conferencia internacional para fijar el patrón entre diversos modelos de teclado, pero de nada sirvió ya que los profesores de mecanografía se negaron rotundamente a adoptar otro estándar que no fuera el qwerty. La comodidad de lo aprendido en cada uno de los usuarios es la fuerza tractora en el progreso de un medio como el teclado. No se trata de simples factores técnicos que modelan un proceso, sino de que los individuos valoran enormemente la disponibilidad inmediata en un teclado, además de valorar menos las fases de aprendizaje. De esta manera, la influencia del estándar global mismo produce su propio estancamiento: científicos y diseñadores no pueden desarrollar nuevas investigaciones en teclados porque parecen condenadas al fracaso. En 1930, August Dvorak desarrolló un modelo de teclado para la Marina norteamericana, en colaboración con un grupo profesional de mecanógrafas, que facilitaba con creces la velocidad y seguridad del tecleo. No obstante, aunque aún es utilizado en ciertos lugares, jamás se impuso sobre el modelo de Scholes, que se convertirá en estándar.


En 1956, investigadores del Massachussets Institute of Technology empiezan sus experimentos sobre teclados que operan directamente en la arquitectura interna de las computadoras. El usuario ya puede establecer directa relación con el ordenador gracias a órdenes directas tecleadas. En 1973, Don Lancaster logra una conexión directa entre un teclado y un televisor. La información ya se despliega en una tele normal y corriente. Pero a nadie se le ocurrirá proponer un cambio en el modelo del teclado para adecuarlo a los nuevas prácticas de los usuarios informáticos. Las pocas propuestas que logran progresar no parecen aún capaces de influir a gran escala. El teclado qwerty se usa en la actualidad en los 45 países con alfabetos romanos, excepto en 3 casos.

El teclado se ha convertido, gracias al ordenador, en la herramienta más consustancial en el entorno de buena parte de los ciudadanos: es literalmente su proyección en el orden maquinal. No parece que vaya a cambiar en breve. El software vocal no ha cuajado lo suficiente en una cultura aún vinculada a una cierta intimidad en las comunicaciones. Así pues, creado hace siglos, el teclado de Scholes sigue imperando como estándar, aunque sus funciones hayan quedado mermadas a causa de un diseño desfasado. Las características de unidad que conllevan protocolos muy asentados acaban perjudicadas por la comodidad y las dificultades técnicas de un cambio tan enorme. Tampoco olvidemos que el teclado fue pensado y ejecutado en lengua inglesa, que como el Meridiano de Greenwich marca la hora lingüística internacional. La universalización del interfaz del teclado ayudó sobremanera al colonialismo lingüístico de Inglaterra y EEUU, que gracias a la ingente burocracia impresa consiguieron una gran penetración en el tejido cultural de los países colonizados en África y Asia. Que el teclado qwerty no esté seriamente amenazado se debe también en buena parte a que el primer productor de tecnología son los EEUU. Y allí aún se sigue hablando inglés.

Estándares: políticas de individualidad portátil

Nuestros aparatos de comunicación actuales son funcionales 1) si son aptos para trabajar en todas las situaciones, y 2) si son consistentes entre ellos. O lo que es lo mismo: 1) Queremos que todo el mundo se adapte a nuestro estándar, y 2) deseamos que todas las máquinas tengan el mismo lenguaje. Y ¿de qué manera definimos el interfaz sino como el sistema visual y táctil mediante el que se relacionan hombres y máquinas –que por naturaleza debe ser unitario- y el lenguaje matemático con el que hablan las propias máquinas? El interfaz es el imán: la piedra alrededor de la cual toda nuestra comunicación gira.

La movilidad se acelera cuando la gente crea lenguajes comunes con los que entenderse con desconocidos. El lenguaje mismo ha sido y es el principal interfaz de comunicación. El lenguaje fronterizo ha sido siempre crisol social y los imperios disponen de muchas fronteras. El ejemplo del pidgin (pronunciación china de la palabra inglesa business) es bien conocido: un inglés híbrido hablado por numerosos asiáticos de principios del siglo XX, a través de los largos (mal)tratos comerciales con los británicos . El spanglish, en su fondo, es otro ejemplo más actual. Son lenguas resultados de las diferencias. La búsqueda de un código común es la esencia misma de la comunicación.

Pero si la lengua ha sido esencial en esas transmisiones culturales e imperiales, los nuevos lenguajes electrónicos y digitales plantean nuevos alcances en la elaboración de sistemas comunes y adaptados a usos simples y directos. No se trata ya de crear hibridaciones hechas de fricciones, sino de unificar el conjunto general en un solo código, siguiendo la pauta de la “ley natural” de la tecnoeconomía fundamentada en la creación de estándares. En la nueva religión de la conectividad universalizada, no tiene ningún sentido pelearse con lenguajes de máquina extraños.

El homo mobilis da por hecho que todo el mundo es móvil también, que utiliza sus mismos estándares, y de hecho constata una realidad. El estándar rige el imperio de la movilidad. Cuando uno se desplaza por ahí, lo que desea es que el ordenador ajeno frente al que se sienta tenga “el” sistema operativo, para no tener que perder el tiempo. El caso de los cajeros automáticos y el sistema actual de despliegue gráfico por menús dan buen ejemplo de ello. La mayoría de displays gráficos en las pantallas se configuran a base de menús; un lenguaje nacido en el ordenador a principios de los años 80, e inmediatamente aplicado a los cajeros automáticos, y más tarde a todos los sistemas de información sobre pantalla. El menú proporciona multivisión de opciones (no ampliables) y da la seguridad de poder “deshacer” una decisión ya tomada. En el sensible caso de los cajeros automáticos, que encontraron una gran reticencia inicial entre un público temeroso del error mecánico o de la suplantación de identidad, la “reversibilidad” en la elección de opciones constituyó un gancho directo y personal. Más adelante, abundaremos más en este punto. El estándar informativo con el que las máquinas se comunican con nosotros es imperativo, en el sentido que genera total dependencia en el usuario, ya que bajo el falso manto de la facilidad de uso, quedan monopolizadas las posibilidades de percibir otros modos diferentes de organización visual.

La portabilidad crea estándar a la fuerza. Antes de la aparición del ferrocarril en 1841, las horas que marcaban los relojes públicos de Bristol y Londres eran diferentes. Cuando en la primera eran las 6:15, en la City eran las 6:00 . A nadie le importaba puesto que a nadie afectaba esa diferencia horaria. Las relaciones entre las ciudades se sucedían a una velocidad en la que los minutos y los segundos contaban relativamente. Con la aparición del tren –o del telégrafo- y la implantación de los horarios, las horas se unificaron, en beneficio de un “sistema de integración interno del tiempo” que la propia máquina impone en los usuarios. Los horarios de los transportes modernos transformaron de manera definitiva nuestra concepción del tiempo productivo en todos los ámbitos: el laboral, el escolar, el lúdico, el familiar, el del viaje. Todo se rige por un lógica ordenada del tiempo, que informa da sentido a todo. Más tarde, la portabilidad virtual de los artilugios de comunicación del siglo XX, añadiría al deseo de transportarse uno mismo, el de transportarlo todo a uno mismo. Esta distinción es esencial, pues confirma la definición del estándar como una plataforma común sobre la que cada individuo o industria despliega su contenido. La percepción de los estándares como simples escenarios a rellenar ha cegado una crítica más profunda del carácter expansionista de la comunicación, puesto que el “sistema común” se concibe dentro de una jurisdicción cerrada e innegociable: la libertad del individuo y su derecho inalienable a comunicarse y recibir información, en cualquier parte y en todo momento.

La movilidad y la portabilidad obligan al establecimiento de estándares que hagan operativa nuestra gestión en y con el mundo. Sin dejar a nadie fuera. La propia noción de la ordenación temporal establece medidas para saber dónde está uno respecto a su punto de partida. En el tortuoso camino de la exploración colonial, la conquista de interfaces ha sido unos de los botines más preciados. La búsqueda centenaria de un sistema para el cálculo marítimo de la longitud terrestre inició el camino hacia una hora mundial, establecida, por supuesto, en “el punto de partida”, en Greenwich , Inglaterra, en 1833. La transportabilidad lleva pareja el uso de un interfaz consistente que permita al viajero medir su posición de la misma manera y en cualquier parte del mundo. Por tanto, el mundo debe adaptarse a él. Si por algo se perciben tan contiguos el colonialismo del siglo XIX y XX y la globalización actual es por el hecho que si antes no se concebía un territorio "sin movimiento", ahora no se concibe un tiempo autosuficiente, ajeno al sistema. “Ninguna cultura debe quedar aislada”: esta fue la línea que adoptó Estados Unidos a finales de los noventa en una revista, Correspondence, editada por Daniel Bell, y en la que se condenaba aquellas sociedades que no quisieran convertirse en “globales”.

El único tiempo que corre es el individual, vendido como un tiempo privatizado pero en plena armonía con el todo, gracias a las tecnologías y las técnicas de gestión. Los aeropuertos, las estaciones de tren, los vehículos: todos funcionan de la misma manera y no confunden al usuario. Los botones de ordenadores, y de los cientos de pequeños aparatos de cocina, personales, etc., están diseñados para que sean identificables y similares a todos los demás: consistentes, en el lenguaje del diseño. Los individuos despliegan su movilidad gracias a una comunión comunicacional con su entorno. El lenguaje de la máquina lo arropa.

La observación como interfaz

La principal formulación científica moderna del interfaz viene de la mano de la termodinámica y de la hidrostática del siglo XIX, dos ramas de la física encargadas de analizar el encuentro entre elementos distintos. Los posteriores desarrollos quánticos y sobre la relatividad, añadieron una nueva profundidad a su definición. La nueva física, especialmente a partir del modelo propuesto por Einstein, subrayaba la importancia de considerar la observación dentro de la dinámica del mundo observado, sin tratarlo como un añadido extraño a ese mundo. Nuestros sentidos son en buena medida parte integrante de ese interfaz:

“Nuestros sentidos son superficies que forman una frontera común entre nuestras partes internas y externas de materia y espacio. Las superficies de nuestros sentidos son activas y permiten transgresiones entre la “materia y el espacio internos” y la “materia y el espacio externos”. El tiempo es el dominio necesario para pasar a través de las superficies de nuestros sentidos”.

Dice la teoría quántica: “Un interfaz es una entidad que forma la frontera común entre dos partes de un sistema, así como un medio para intercambiar información entre esas partes. Por convención, una parte del sistema se llama “observador” y la otra “objeto”. La información entre el observador y el objeto es intercambiada a través del interfaz y mediante símbolos. Cualquier intercambio de información de este tipo se llama medida.”

Para poder establecer un descripción real del mundo que observamos es necesario crear un espacio de intercambio de información que lo permita: una especie de check-point permanente y duradero: “Una de las posiciones más sostenidas para describir cualquier objeto es que lo que es descriptible permanece en estasis (situación de equilibrio entre dos fuerzas opuestas). Si el objeto descriptible varía justo en el proceso de descripción, nadie puede esperar una completa identificación del objeto dado pues los cambios aún por llegar nos obligarían a actualizar constantemente la descripción”.

Cálculo social

Leibniz será uno de los primeros investigadores en construir máquinas de calcular, en acercarse un poco más a la propia velocidad. Esas máquinas desplegaban botones y ruedas, de manera que la relación con el cálculo se simplificaba mucho. Pero aparte de los matemáticos, ¿a quién simplificaba el trabajo también?


Máquina de calcular de Leibniz, 1694

En 1649, Blais Pascal construye la primera calculadora mecánica para facilitar el trabajo de su padre, recaudador estatal de impuestos.


Máquina de calcular de Pascal, 1649

Hermann Hollerith, funcionario de la Oficina de Censos de los EEUU, recibe el encargo de diseñar en 1890 una máquina que pueda reducir el tiempo de clasificación de datos fiscales y de censo. Los datos del censo realizado en 1880 tardaron 9 años en ser compilados. La "Tabuladora" de Hollerith lo llevó a cabo en 2 años y medio, y utilizó 56.000.000 de tarjetas perforadas. Y a modo de broma histórica, años más tarde, encontramos a Einstein trabajando de empleado en la Oficina de Patentes de Berna, mientras elaboraba los principios fundamentales de la física moderna.


Tabuladora de Hermann Hollerith, 1890

La evolución de técnicas fiables de registro y archivación ha respondido casi siempre a necesidades institucionales específicas: el padrón, el censo, el seguimiento fiscal, las oficinas de pasaportes, el establecimiento de redes seguras de información reservada tanto política, policial como militar; el análisis de ciclos periódicos, ya sean naturales o macroeconómicos (con sus complicadas variables); pero sobre todo, ha sido la necesidad científica la que ha impuesto el modelo técnico que actualmente impera, dado que ella estaba al servicio de su comprobación; era de alguna forma su garante.