Veinticinco años de Internet: una retrospectiva autobiográfica

José Barberá

Este artículo, planteado en cierta medida como una catarsis personal, quiere ser un homenaje a todos aquellos que, con su esfuerzo y colaboración desinteresada, han hecho posible la creación de la Internet actual y el fenómeno sociocultural que ese hecho conlleva.

Lo quiero dedicar a todos los amigos y compañeros de la ETSI de Telecomunicación de Madrid, del Instituto Tecnológico para Postgraduados, del MIT, de Telefónica, de Fundesco y del Centro de Comunicaciones CSIC-RedIRIS, que de un modo u otro han intervenido en esta historia que relato, salpicada de referencias autobiográficas.

Mención especial la que hago a Larry Landweber, profesor de la Universidad de Wisconsin y vicepresidente actual de la Internet Society. Su claridad de ideas, su disposición a facilitar la comprensión de los acontecimientos que iban a llevar a la extensión mundial de la Internet a principios de esta década, y su interés personal por ayudar y seguir los desarrollos propios de cada país y en particular los del nuestro, le hacen acreedor de una deuda de gratitud de todos los usuarios de RedIRIS.

1.- Un sistema de comunicación "de dudosa eficacia"

En otoño del año pasado se celebraron simbólicamente las "bodas de plata" de la Internet, al cumplirse los 25 años de su puesta en marcha. ¿Se hablaba en 1969 de la Internet? Evidentemente, no. ¿Qué acontecimiento tuvo lugar entonces para señalar ese año como el comienzo de la era de los internautas? Lo que ocurrió realmente en ese otoño del año en que el hombre había llegado a la luna fue la instalación y puesta en funcionamiento del primer nodo de ARPANET, en la Universidad de California en Los Angeles (UCLA). En diciembre ya había otros tres más: en el Instituto de Investigación de Stanford (SRI), en la Universidad de California en Santa Bárbara (UCSB) y en la Universidad de Utah. Se constituía de ese modo el embrión de lo que hoy es la red de redes Internet que se extiende por todos los continentes. Pero volvamos un poco más atrás para comprender cuales eran las motivaciones y propósitos de un experimento del Departamento de Defensa de los EE.UU.

A principios de la década de los 60 nos encontrábamos en plena psicosis de guerra fría. La posibilidad de un ataque nuclear era un supuesto manejado por las autoridades de EE.UU. Tras el temor a un desastre de ese tipo, la pregunta que se hacían era: ¿cómo nos podríamos comunicar tras una guerra nuclear?

Estaba claro que la América de esa época iba a necesitar una red robusta de mando y control, que uniera entre sí las bases esparcidas por todo el país. Sin embargo, por mucho que se protegieran los nodos y las líneas de comunicaciones, siempre subsistía la posibilidad de que una bomba nuclear alcanzase el centro de control, objetivo primordial del enemigo, con lo que la red quedaría inservible.

La corporación RAND, nido de estrategas de la guerra fría, hizo en 1964 una propuesta encaminada a combatir esa eventualidad: en primer lugar tal red no tendría una autoridad central; además habría que diseñarla desde el principio para que pudiera funcionar incluso en condiciones adversas, de modo que la destrucción de una parte no afectase al resto de los nodos. Así pues, se partía de que la red no sería nunca fiable y de que todos los nodos debían ser iguales, con la misma autoridad para enviar, pasar y recibir los mensajes. Estos se dividirían en "paquetes", cada uno de ellos con su propia identidad, que serían transportados independientemente desde un nodo de origen hasta otro de destino.

La ruta particular de cada paquete no importaba, sólo contaba el resultado final, es decir que existieran los mecanismos adecuados para recomponer el mensaje original en el lugar de destino. En esencia, cada paquete iría saltando de nodo en nodo como una patata caliente, más o menos en dirección a su destino. Si en el camino algún nodo fallaba, los paquetes quedaban como flotando en el aire, dirigiéndose a otros nodos vecinos que les permitirían sobrevivir. Nacía de este modo el concepto de red de conmutación de paquetes, un sistema de comunicación que podría ser dudosamente eficaz desde el punto de vista convencional (sobre todo si se compara con la red telefónica ordinaria), pero que sería enormemente robusto frente a adversidades y fallos.

2.- ARPANET: ¿una red de ordenadores?

La idea de crear una red a prueba de bombas, descentralizada y basada en la conmutación de paquetes, fue tomando cuerpo y encontró eco entre RAND, el Instituto Tecnológico de Massachusetts (MIT) y UCLA. Curiosamente fue el Laboratorio Nacional de Física del Reino Unido quien primero construyó un prototipo de esas características en 1968. Poco después la Agencia de Proyectos de Investigación Avanzada del Pentágono (ARPA) decidió subvencionar un experimento similar, aunque más ambicioso, en EE.UU.; los nodos de la red se utilizarían para unir "superordenadores" de aquella época, costosas máquinas dedicadas a los proyectos nacionales de investigación y desarrollo, que ciertamente iban a necesitar un sistema de comunicaciones robusto.

Como se dijo antes, en diciembre de 1969 ARPANET, llamada así en honor a sus patrocinadores, tenía cuatro nodos, a los que se los conocía por las siglas IMP (Interface Message Processor), que unían los "superordenadores" por líneas dedicadas de "alta velocidad" (56 Kbps). Los científicos e investigadores podían de ese modo compartir recursos informáticos remotos e incluso programar remotamente los ordenadores, lo que resultaba particularmente interesante en aquellos años en los que el tiempo de máquina era un recurso especialmente valioso. En 1971 ARPANET contaba con 15 nodos y en 1972 ya había 40.

Sin embargo, durante el segundo año de funcionamiento, apareció un hecho no previsto inicialmente al diseñar el proyecto; los científicos usuarios de la red habían encontrado una funcionalidad adicional: podían enviar por ella mensajes personales para discutir sobre los trabajos en curso. Los usuarios-diseñadores habían convertido así la red de compartición de recursos informáticos en ¡una red privada de correo "electrónico", subvencionada con fondos públicos! Porque una vez abierta esa vía, con cuentas de usuario y direcciones personales de correo electrónico, la información que viajaba por la red no era solamente científica; los mensajes también trataban otros temas particulares e incluso cotilleos. Los usuarios estaban entusiasmados: ese servicio de comunicación personal era mucho más interesante que el diálogo remoto entre máquinas.

El paso siguiente fue el descubrimiento de las listas de distribución electrónicas, que permitían difundir un mismo mensaje a un gran número de personas interesadas sobre temas variopintos. Uno de los más populares fue el de ciencia-ficción, que no tenía que ver demasiado con el objetivo del proyecto, lo que en cierta medida contrarió a los responsables de ARPA. A pesar de ello, éstos no quisieron impedir ese uso heterodoxo de la red. Lo que inicialmente se concibió como una red de ordenadores para comunicarlos entre sí se había transformado en una red para la comunicación de personas y grupos, basada en ordenadores y en la conmutación de paquetes.

3.- El proyecto "Internetting"

Durante los años 70 la red ARPA fue creciendo. Su estructura descentralizada facilitaba la expansión. A diferencia de las redes de ordenadores corporativas (homogéneas), ARPANET admitía sistemas diferentes (DEC-10, PDP-8, PDP-11, IBM 360, Multics, Honeywell...). La condición imprescindible: todas debían hablar un mismo lenguaje discontinuo, basado en la técnica de conmutación de paquetes. A este lenguaje se le denominó inicialmente NCP (Network Control Protocol). Mientras tanto iban desarrollándose proyectos de redes de conmutación de paquetes basadas en otras tecnologías y medios de transmisión como la radio y el satélite, caso este último de la red ALOHA, desarrollada en la Universidad de Hawaii en 1972 mediante técnicas de acceso múltiple y colisión de paquetes. Esta tecnología posteriormente dio origen a la Ethernet desarrollada en el centro de investigación de Xerox en Palo Alto.

A la vista de esa situación, en 1973 ARPA rebautizada entonces como DARPA lanzó una nueva iniciativa con el objetivo de investigar técnicas y tecnologías para unir redes de paquetes de varios tipos. La idea era desarrollar protocolos de comunicación que permitieran a los ordenadores comunicarse de modo transparente a través de distintas redes de paquetes interconectadas. Esta iniciativa fue bautizada como Proyecto Internetting, del que ha derivado el nombre actual de Internet. El sistema de protocolos desarrollados en el curso de ese proyecto es lo que se conoce como la serie de protocolos TCP/IP, por el patronímico de los dos primeros: Transmision Control Protocol (TCP) e Internet Protocol (IP), sucesores del NCP original. El primero de ellos trocea en paquetes los mensajes generados en el origen, y luego los recompone en el nodo de destino. El Protocolo IP se ocupa del direccionamiento de los paquetes, de modo que estos puedan viajar por rutas diversas, atravesando múltiples nodos e incluso por diferentes redes con distintos estándares de comunicación.

4.- Visión personal de las redes de paquetes

Los años 1974-76 los pasé en el MIT realizando estudios de postgrado e investigación en el Departamento de Electrical Engineering and Computer Science. Procediendo de un grupo español de investigación en transmisión de datos, pronto me decidí a dedicarme al tema de las redes de ordenadores, tan en boga en aquellos momentos en los que parecía que ya estaba todo dicho sobre la teoría de comunicaciones y el análisis espectral de las señales.

De este modo conocí la red ARPA y la técnica de conmutación de paquetes. Tuve ocasión de asistir a seminarios protagonizados por profesores del MIT, la Universidad de Harvard y de BBN[1] (Bolt, Beranek and Newman), activa empresa de Cambridge (Massachusetts) en el desarrollo de ARPANET, que en 1969 había fabricado el primer nodo IMP (basado en un Honeywell DDP 516) que se instaló en UCLA.

En aquellos años no tuve ocasión de experimentar la red ARPA como usuario. Aquella tarea estaba reservada a los investigadores de primera línea; el uso no era fácil, ni mucho menos accesible a los neófitos que solamente estábamos de paso. El estudio de los protocolos TCP e IP, los IMP los TIP (Terminal IMP), etc. no formaba entonces parte de la enseñanza reglada. Había que seguir los temas a base de seminarios, charlas y alguna que otra tesis doctoral de las que iban saliendo entonces. Yo hice mi tesis de Master of Science sobre modelos de encaminamiento en redes de ordenadores, basados en la teoría de la difusión, algo que casi 20 años después apenas recuerdo, ni sé si ha servido para algo (probablemente no).

A mi vuelta a España presenté la tesis doctoral sobre otro tema de redes de ordenadores, ahora centrándome en el control dinámico de redes con canales de acceso múltiple (como el sistema Aloha y la Ethernet). Ni que decir tiene que me resultaría imposible actualmente entender muchas cosas de las que entonces escribí, más allá de que había muchas colisiones entre los múltiples paquetes que surgían de todas partes y variadas probabilidades de retransmisión

Sin embargo, una cosa era cierta: sabía claramente qué eran las redes de paquetes y cómo funcionaban esos protocolos tan caóticos que, milagrosamente, eran capaces de recomponer en el destino los mensajes originales. ¿Lo sabía realmente?

Eso me creía yo hasta que empecé a colaborar con un grupo de expertos de la División de Informática de Telefónica que empezaba a trabajar sobre redes de datos de conmutación de paquetes[2]. Pero esas redes eran distintas de las que había conocido en EE.UU. Se basaban en algo llamado X.25, que no era un protocolo de comunicación entre nodos de red (como el IP), sino más bien un interfaz de acceso a la misma desde el terminal de datos del abonado, normalizado por el CCITT para las redes públicas de datos de los operadores telefónicos.

La recomendación X.25, además de no aclarar para nada lo que les ocurre a los paquetes cuando viajan de un nodo a otro, presentaba una característica muy rara respecto a lo que yo había aprendido: al contrario que en ARPANET, en donde los paquetes se mueven caóticamente siguiendo caminos diferentes, ahora esos paquetes van todos ordenados por unas rutas fijas entre origen y destino (llamadas "circuitos virtuales"), que no se alteran mientras se mantiene abierta la llamada. Pero entonces, ¿qué clase de red es esa en la que antes de empezar a enviar paquetes hay que hacer una llamada y asegurar un camino fijo entre el origen y el destino? ¿Acaso no es eso como la red telefónica normal? La sorpresa inicial desaparece enseguida cuando uno piensa que, a fin de cuentas, el diseño lo ha hecho la compañía que da el servicio telefónico.

Una vez superado el impacto inicial, empiezo a comprender la motivación que sostiene el X.25. Las líneas de entonces no tienen la calidad suficiente para la transmisión de datos, puede haber errores y, por tanto, el protocolo de comunicación ha de ser lo suficientemente redundante para permitir retransmisiones y corrección de esos errores. De este modo, la tecnología X.25 proporciona una red de alta calidad que asegura a los equipos terminales de datos (así designa el CCITT a los ordenadores y a los terminales de usuario) que la información que les llega es correcta. Además, X.25 permite negociar determinados parámetros y tarificar en distintas modalidades. Pequeño detalle éste del pago en el que no había caído en la cuenta hasta entonces.

Pero hay más; a finales de los 70 se anuncia que la Organización Internacional de Normalización (ISO) está desarrollando un modelo arquitectónico de referencia basado en la interconexión de sistemas abiertos (OSI), que es el futuro en lo referente a redes. Decidí olvidarme de ARPANET y sus protocolos; aquello era algo de los americanos y, en cualquier caso, pertenecía al pasado: ¡el futuro era OSI! Volvamos ahora al otro lado del Atlántico.

5.- La década de los 80. Primera parte: el nacimiento de la Internet

A comienzos de esa década surgen en el mundo científico de EE.UU. otras redes afines, tales como CSNET (Computer Science Net) y BITNET. Esta última, de naturaleza interdisciplinar, conectaba los ordenadores IBM de los centros de cálculo de diversas universidades con líneas de baja velocidad y mediante la serie de los primitivos protocolos RSCS de IBM. CSNET fue en un principio patrocinada por la National Science Foundation (NSF) para unir grupos de investigación en ciencia informática en universidades, centros públicos e industria. Inicialmente usaba el protocolo MMDF Phonenet como base para el correo electrónico sobre líneas telefónicas; es de destacar que fue la primera red que posteriormente experimentó el uso del TCP/IP sobre X.25 en redes públicas de datos.

Mientras tanto el uso de los protocolos TCP/IP se fue generalizando en otras redes para su conexión a ARPANET, que seguía creciendo de forma sostenida.

En 1983 se desgajó de ésta la parte relacionada con la defensa, que se llamó MILNET. A pesar de su crecimiento ARPANET fue quedando como una comunidad más reducida frente a otras que iban surgiendo, impulsadas por la necesidad de conectar las nuevas y potentes máquinas que proliferaban, las cuales se interconectaban entre sí mediante los protocolos TCP/IP, que actuaban como un pegamento transparente que unía múltiples redes sin costuras aparentes. Puesto que el software TCP/IP era de dominio público y la tecnología básica era descentralizada y más bien anárquica, era imposible frenar el impulso de interconexión de los usuarios. De hecho nadie quería impedir la interconexión de todas esas redes.

De este modo, nace en 1983 la Internet como red de interconexión entre ARPANET, MILNET y CSNET, unidas todas ellas por los protocolos TCP/IP, y a las que se irían añadiendo posteriormente otras redes, de EE.UU. y de otros países.

6.- La década de los 80. Segunda parte: el declive de ARPANET

En 1986 la NSF, ante las dificultades burocráticas que encontraba para conectar por ARPANET sus centros de superordenadores, puso enmarcha una nueva iniciativa para unirlos mediante líneas de altavelocidad, creando de este modo una red troncal (backbone) deextensión nacional, con enlaces cuya capacidad fue aumentandogradualmente hasta 1,5 Mbps. Era la NSFnet, que en 1992 ya contaba con enlaces troncales de 45 Mbps. Paralelamente otras agencias del gobierno de EE.UU. (la NASA, el Departamento de Energía, el Instituto Nacional de la Salud) fueron poniendo en marcha sus propias redes, creando de este modo una confederación Internet, aunque en una situación organizativa propia de reinos de taifas.

Los diferentes nodos de esa red de redes, algunos de los cuales alcanzaban ya Europa (Reino Unido y Noruega), fueron catalogados de acuerdo con el país de origen, pero la mayoría de los de EE.UU. decidieron dividirse en seis "dominios" básicos: edu, mil, gov, org, com y net (tipo éste de abreviaciones comunmente encontrado en la Internet), para designar el campo de actividad de los usuarios. Además de los ámbitos tradicionales académicos, militares y del gobierno, entraban en escena otras organizaciones no lucrativas, aunque también empresas comerciales que pronto vieron la utilidad de pertenecer a este club un tanto anárquico, aunque apasionante.

ARPANET, que había comenzado su declive desde la entrada en escena de NSFnet, expiró pacíficamente en 1989, víctima de su propio éxito; sus usuarios apenas notaron su desaparición, por cuanto que su funcionalidad no solamente permaneció sino que fue mejorando continuamente.

7.- Las redes abiertas. El mito de OSI

Simultáneamente a los desarrollos anteriores, los últimos años de la década de los 80 habían dejado patente la consolidación del modelo OSI para interconexión de redes en modo abierto. Sin embargo, desde el punto de vista práctico las complejas torres OSI no habían ido mucho más allá del nivel de red X.25, servicio ofrecido por bastantes redes públicas de datos, especialmente en Europa. Solamente el correo electrónico X.400 llegó a escalar los niveles superiores sobre distintos sistemas, dando lugar a productos tanto académicos como de cierta implantación comercial, productos que en ocasiones eran más que nada material de ferias y exhibiciones de interoperatibilidad.

Sin embargo, no había que perder la esperanza. Era sólo cuestión de tiempo que los fabricantes de ordenadores y las casas de software empezaran a ofrecer los productos adecuados a los distintos niveles de OSI. Ofrecer, lo que se dice ofrecer, era cierto que los ofrecían; pero había que ver a qué precio y con qué grado de compatibilidad. En las redes de I+D que empezaban a utilizar el correo X.400 pronto se implantaron los productos académicos, menos completos que los comerciales y sin un mantenimiento estable, pero más fáciles de instalar y con mejores interfaces de usuario. Tales redes usaban normalmente la infraestructura X.25 de las redes públicas de datos, lo que era una ventaja a la hora de la gestión, que quedaba en manos del operador. Asimismo, el acceso desde un terminal remoto quedaba solucionado por las facilidades XXX (X.28, X.3 y X.29) que ofrecían esas redes. Sólo había que aprenderse los números de la dirección X.121 correspondiente (¡9-13 cifras!), y a teclear.

En cuanto al nonato FTAM, no consiguió pasar de experimentaciones de dudosa eficacia, pero sin lograr ir más allá de la T. La A y la M no lograron despegarse nunca de su lugar en el abecedario.

Las declaraciones de apoyo a OSI iban en creciente aumento sobre todo en países europeos mejor organizados o más firmes y ortodoxos en sus convicciones: Alemania, Reino Unido..., en relación inversamente proporcional al desarrollo e implantación real de productos. Con todo había un hecho esperanzador: el Departamento de Defensa y la NSF de EE.UU. habían anunciado la decisión de sustituir los protocolos TCP/IP por los de OSI, en un plazo "relativamente breve" (¿1992?, ¿1993...?). Inmejorable situación para los de las redes de I+D europeas que andábamos ya más avanzados por el buen camino. Quedaba únicamente por solucionar el problema de cómo hacer compatibles los dos mundos: el nuestro, el mundo abierto de OSI, con el de los pobres desdichados de la Internet, encerrados en su isla por los protocolos TCP/IP.

8.- UNIX y Ethernet: una combinación explosiva

Un aspecto obviado hasta ahora ha sido el de la evolución del concepto de red en los años 80, precisamente durante la etapa de despegue y expansión inicial de la Internet. A la vez que grandes ordenadores, cada vez más potentes, iban desarrollándose nuevos minis y surgían los ordenadores personales y las estaciones de trabajo.

La descentralización de la informática en las universidades y centros de investigación fue consolidándose progresivamente, aislando de este modo a los usuarios de los recursos comunes, lo que iba asimismo en detrimento de la comunicación personal. Surgieron así las redes locales de diversas tecnologías, que restauraban esa conectividad perdida; la Ethernet fue encontrando una mayor aceptación en los ámbitos académicos y de investigación. Por otro lado, el uso del sistema operativo UNIX se iba generalizando masivamente entre los científicos informáticos.

La combinación de UNIX con Ethernet y otras tecnologías de red de área local dispara el crecimiento de productos Internet a partir de 1985. DARPA había invertido fondos significativos para que BBN desarrollase una implementación de TCP/IP sobre UNIX que fue después trasladado al UNIX de Berkeley V4.2. El paso siguiente fue la adopción de BSD por Sun como sistema de base para sus productos comerciales.

A partir de entonces, y coincidiendo con la implantación de la NSFnet, comienza una demanda creciente de conectividad Internet y de ancho de banda. Los operadores de EE.UU. proporcionan los enlaces y aparecen empresas informáticas que sacan al mercado máquinas especializadas para el encaminamiento (los routers).

Por otro lado, como tentáculos del pulpo gigante en el que se va convirtiendo NSFnet, entran en escena las redes de nivel intermedio o redes regionales, impulsadas y patrocinadas por la NSF como parte de las iniciativas de NSFNet. Algunos de esos tentáculos llegan ya a otros continentes: Europa, Australia, Japón... Además surgen los primeros proveedores comerciales, que proporcionan el servicio a empresas privadas sin relación de patrocinio con la NSF.

Resultado: la red de redes Internet había extendido su capilaridad hasta llegar prácticamente hasta el mismo puesto de trabajo de los usuarios conectados a sus redes locales. Ahora éstos tenían a su alcance una serie de recursos informáticos (correo, ficheros, listas, acceso remoto...) distribuídos por todo el mundo, recursos que hasta entonces veían solamente de modo local. El diseño del TCP/IP y la posibilidad de su infiltración a todos los niveles, sobre diferentes tecnologías y medios, habían hecho posible semejante proeza. Algo no considerado cuando se diseñaron los protocolos TCP/IP, con la consiguiente influencia sobre el espacio de direcciones de la Internet que, como se verá más adelante, se quedó corto, siendo en la actualidad uno de los problemas a los que debe enfrentarse esta red.

9.- La interconexión LAN/WAN: un desafío estéril

Volvamos nuevamente hacia el este y observemos el escenario europeo de las redes. Estamos a finales de los años 80. La informática se ha distribuído y las redes de área local (LAN) se han generalizado en los centros universitarios y de investigación. Como es lógico, se han adoptado los correspondientes estándares, en este caso bajo la tutela del IEEE (Institute of Electrical and Electronic Engineers), la conocida serie 800 para las tecnologías Ethernet, Token ring, Token bus, etc. Posteriormente ISO hará suyas esas normas sin más que preceder cada uno de esos números por un 8.

Florecen las redes de I+D en Europa; en España ya ha comenzado el Programa IRIS para crear la red académica nacional. Es entonces cuando surge el problema de la interconexión de las redes de área local mediante redes de área extensa: el famoso problema LAN/WAN que figuró con uno de los objetivos estratégicos del Proyecto COSINE.

No quiero entrar ahora en las complejidades técnicas del asunto. Por simplificar diré únicamente que se trataba de interconectar (principalmente) Ethernets mediante redes de paquetes X.25 (públicas o privadas), en el nivel 3 (de red) del esquema OSI. La dificultad radicaba en unir redes diferentes en cuanto a conectividad extremo a extremo: las locales (no conectivas) y las X.25 (conectivas). Se propusieron varias soluciones: pasarelas de transporte (por encina del nivel de red), pasarelas de red (¡llevar el nivel de red X.25 sobre el del enlace de la LAN!), poner el IP sobre X.25 (pero el IP de ISO, ¡ya que el IP de Internet se suponía iba a ir migrando hacia OSI!). Y mientras tanto, dada la existencia de aplicaciones TCP/IP en las LAN de los investigadores y la necesidad de comunicación con los de la Internet, se proponía un escenario lleno de pasarelas de aplicación: correo electrónico, terminal remoto, ¡transferencia de ficheros!

El resto de la historia es bien conocida: el fracaso de todas las predicciones fue algo tan sonado como cuando la crisis del petróleo de los años 70. Afortunadamente para mí y para todos los usuarios de RedIRIS, creo en aquellos años "oscuros", entre el 87 y el 90, tuve la fortuna de mantenerme en contacto con el mundo Internet gracias a los seminarios que organizaba Larry Landweber. Anualmente nos reuníamos un grupo relativamente reducido de 40-60 personas de diversos países para tratar de entender el problema global de la interconexión de redes de I+D. Esos encuentros finalizaron en un momento dado para dar lugar a la primera conferencia internacional INET'91 en Copenhague, en la que se anunció la constitución de la Internet Society (ISOC) para enero del año siguiente.

De este modo, la nave de RedIRIS que entonces dirigía pudo virar 180º y tomar el rumbo adecuado. Volvía a mis orígenes de los 70 en el tema de las redes. ¿Qué había ocurrido en esos años para que todos los supuestos de los sistemas abiertos de ISO fueran quedando como material de archivo?

10.- La clave (técnica) del éxito: IP sobre todo

En 1993, asistiendo en San Francisco a la conferencia anual de la Internet Society, vi un día a su presidente, Vint Cerf, tan serio y tan formal normalmente, que nos sorprendió a todos llevando una camiseta con la inscripción "IP on everything". Para entonces ya estaba claro el vuelco que se había producido en las redes de I+D, que aunque con algunas argucias más bien dialécticas tales como "redes multiprotocolo" habían basado sus redes en IP, dejando así la puerta abierta a los usuarios para que eligieran las aplicaciones que les resultasen más convenientes, y facilitando de este modo la conexión a la Internet y la expansión de ésta por todo el mundo.

La clave del éxito estaba en la camiseta de Vint Cerf, precisamente uno de los principales artífices del desarrollo de los protocolos TCP/IP. La simplicidad y flexibilidad del protocolo IP habían hecho posible su funcionamiento sobre todo tipo de tecnologías de red: LAN, X.25, FDDI, Frame Relay, RDSI, ATM... lo que llevaba seguidamente al uso del resto de protocolos TCP/IP y de las correspondientes aplicaciones. Otro factor importante del éxito frente a las redes X.25 era que mientras en éstas las aplicaciones quedaban al margen del proveedor de red, dejando a los diferentes usuarios la decisión sobre los servicios que querían transportar, en la Internet aquellas han ido unidas desde el principio a los protocolos TCP/IP. Y así, además de las tradicionales de SMTP, FTP, Telnet y News, hemos podido ver cómo se ha expandido rápidamente una plétora de nuevos servicios de búsqueda y acceso a información tales como Archie, Gopher, WAIS y WWW, que han convertido a la Internet en una colección de comunidades virtuales que han traspasado las barreras políticas y geográficas, en la que participan sectores de todo tipo: académicos, científicos, comerciales, culturales, de la administración, de la enseñanza media, etc.

Pero, ¿qué es lo que ha llevado a toda esa gente tan diversa a querer estar conectados a la Internet?

11.- La clave (estratégica) del éxito: libertad y cooperación

El deseo de ser libre y poder comunicarse con sus semejantes es una características común a la mayoría de los seres humanos (no así de las instituciones); incluso se podría añadir que en el fondo de ello subyace una mayor o menor dosis de anarquía que todos tenemos. Con esas premisas, ¿qué mejor oportunidad que la que ofrece una red verdaderamente ubicua, moderna y funcionalmente "anárquica"?

La Internet no va acompañada de siglas como S.A., Inc., Ltd., ... No tiene dueño, no hay un consejo de administración, ni junta de accionistas; no hay negociados, no hay jefes, no hay censores oficiales... Hay solamente una serie de normas técnicas (TCP/IP) y otras de buen uso y costumbre que se espera sigan todos los usuarios. Es una red democrática: todos los nodos pueden "dialogar" entre ellos de igual a igual. Lo mismo ocurre entre los individuos: todos pueden comunicarse entre sí y navegar por ese océano inmenso de información que es la Internet actualmente. La gente en la Internet se siente como en su propia casa o en su organización. Es una "institución" que se resiste a ser institucionalizada. Pertenece a todos y a nadie a la vez; cada individuo y cada organización es el dueño de sus máquinas y de su información.

Mucha gente se ha dado cuenta que la Internet es una ganga. Al contrario de lo que ocurre en el servicio telefónico, aquí no hay facturación en función de la distancia. La Internet, a diferencia de otras redes comerciales, tampoco factura por el tiempo de acceso y por el volumen de tráfico; (otra cosa es lo que haga cada proveedor de servicio en función de su esquema tarifario).

Además de lo anterior hay otro factor clave que ha permitido la expansión de ese fenómeno: la cooperación. Si bien es cierto que se ha contado con cuantiosas subvenciones estatales, también lo es el hecho de que ha habido numerosos individuos e instituciones que han colaborado desinteresadamente en el desarrollo de nuevos procedimientos y aplicaciones, cuyo uso se ha ido extendiendo porque otros han colaborado con críticas, sugerencias, pruebas y mejoras.

En ese sentido hay que reseñar una diferencia fundamental entre la forma de elaborar "estándares" en la Internet y los de las organizaciones de normalización como ISO. En ésta las distintas comisiones técnicas discuten propuestas complejas y muy elaboradas que luego elevan a los niveles superiores de decisión. El problema está en que durante ese proceso, en el que normalmente hay que consensuar diversos intereses encontrados, la tecnología avanza de forma imparable, y del mismo modo crecen las demandas y exigencias de los usuarios. Mientras tanto se espera que los fabricantes desarrollen productos para un mercado que no ven claro.

En la Internet, por el contrario, se ha seguido un proceso inverso: primero desarrollar, luego probar y después normalizar. De este modo, cuando un estándar llega a ser estable ya hay productos que lo implementan; el mercado ha surgido de forma natural.

En resumen, la estrategia de la Internet ha ido de abajo a arriba, por el impulso que han dado los propios usuarios al desarrollo y mejora del servicio, por la colaboración entre múltiples grupos e instituciones, y por la ausencia de innecesarias trabas de tipo burocrático y administrativo.

12.- Retos tecnológicos actuales de la Internet

El crecimiento exponencial de la Internet en los últimos años ha pillado por sorpresa a todos: usuarios, proveedores y diseñadores. Además del número de usuarios, al aumentar paralelamente la potencia de las máquinas, de uso común y personales, han surgido aplicaciones multimedia "asesinas" tales como el WWW, que devoran el ancho de banda disponible en detrimento de los servicios más tradicionales.

La propia red de teleconferencia MBONE, basada en la técnica del IP Multicast, está imbricada como una subred especializada dentro de la Internet general. A pesar de tener unos requisitos diferentes, al ser aplicaciones en tiempo real más críticas en cuanto a pérdidas de paquetes y retardos, esa técnica permite actualmente recibir audio y vídeo de diversas conferencias. De nuevo han sido los propios grupos de desarrollo de la Internet los que la han impulsado, por la necesidad de contar con un instrumento de trabajo para sus reuniones virtuales.

El ancho de banda, a pesar de haberse ido abaratando como consecuencia de la liberalización de las telecomunicaciones, sigue siendo un recurso escaso para este tipo de aplicaciones.

El otro tema acuciante es el del espacio de direcciones. En los años 73 y 74 se había considerado un número máximo de 256 redes. Había sólo una LAN en Xerox PARC y el resto eran regionales o nacionales en EE.UU. Cuando se hizo evidente que habría muchas más redes locales, los expertos inventaron el concepto de clases A, B y C, lo que racionalizaba considerablemente el problema del espacio de direcciones. Pero en lo que los expertos no cayeron en la cuenta entonces fue que los protocolos de encaminamiento y la topología de la Internet cada vez más extensa y difusa no se adaptaban bien a un número de redes tan grande como el que se avecinaba. Y eso resume el otro gran reto actual: la Internet no puede seguir creciendo con el mismo esquema.

Una posible vía de abordar el problema del ancho de banda es mediante la separación de servicios en clases y la correspondiente asignación de recursos, según la mayor o menor necesidad de respuesta en tiempo real y de la interactividad en un momento dado. También se contemplan otras tecnologías de red de banda ancha, tales como el ATM, que en este momento es sólo una promesa ante la falta de un estándar global y de equipos compatibles. Para el tema del direccionamiento IP se está desarrollando el IPng (IP nueva generación), con un espacio mayor de direcciones y con la posibilidad de encaminar los paquetes en función de la dirección de origen y del tipo de información transmitida. De igual modo está la posibilidad de elección dinámica del proveedor.

Por último, ante el creciente uso comercial de servicios, queda pendiente el desarrollo de mecanismos fiables de seguridad y confidencialidad, algunos de los cuales ya se usan de forma restringida, aunque con aspectos legales todavía no resueltos debida a la diferente jurisprudencia de cada país.

13.- Retos organizativos actuales de la Internet

Al haberse ensanchado la base inicial de usuarios académicos de la Internet incluyendo otros campos de actividad, y sobre todo ante el éxito innegable que tiene esta red en "régimen cooperativo de multipropiedad", todo el mundo quiere opinar y plantear cuestiones de diversa índole. Así por ejemplo, los usuarios de empresas quieren asegurar una estructura financiera más sólida antes de confiar la gestión de sus negocios sobre ese red, además de los mecanismos de seguridad y fiabilidad antes señalados. Las administraciones ¡como no! quieren tener un entorno menos anárquico y más regulado; no entienden esa cooperación que sobrepasa fronteras y diluye responsabilidades. Los académicos e investigadores quieren al menos eso creo yo una red propia, que sientan como suya, como siempre ha sido; ellos se lo merecen más que nadie pues para eso hacen avanzar la ciencia e impulsan el progreso. Los militares quieren una red a prueba de espías, totalmente segura y robusta frente a fallos y ataques. Y así todos....

Para estos conflictos de intereses no se ha hallado todavía una solución definitiva. Todo el mundo quiere tirar de la cuerda en su dirección y en su propio beneficio, aunque teniendo en cuenta que no se puede forzar demasiado desde un lado, no sea que se rompa el estado actual de consenso que ha hecho posible el éxito actual.

Ése ha sido hasta ahora el modo de hacer en la Internet: por consenso. Sería desafortunado que esos hábitos se vieran alterados por intereses particulares de grupos de presión. Por suerte, está la Internet Society que, aunque no es ni mucho menos un órgano de gobierno en la Internet, se ocupa de tutelar el desarrollo y evolución de la misma, racionalizando los recursos disponibles y proporcionando el foro para el necesario consenso.

14.- La Internet y las autopistas de la información

Es un tema de moda con el que frecuentemente nos bombardean los medios de comunicación: las (futuras) autopistas de la información. Gobiernos, empresas, instituciones, usuarios... todos hablan de esas nuevas autopistas digitales que se van a poner en marcha. La Iniciativa Nacional de la Información de la Administración Clinton-Gore en EE.UU., el Informe Bangemann de la Unión Europea, la Infraestructura de Info-comunicaciones de Japón... De momento todo son promesas y especulaciones, porque se espera construir esas autopistas uniendo los esfuerzos de gobiernos, operadores, medios de comunicación, fabricantes, etc. Pero hasta ahora no se ha visto una estrategia definida que lleve a la consecución del objetivo propuesto.

Por eso se suele plantear con cierta frecuencia la pregunta "¿es la Internet una de estas superautopistas de la información (al menos un embrión de las mismas)?". Seguramente muchos darán una respuesta afirmativa, especialmente al considerar la posibilidad de evolución de la Internet a una de esas superautopistas (yo mismo así lo he expresado en otras ocasiones). Otros dirán que no, que la Internet carece de las características que definen a esas vías de información del futuro, a saber: no integran voz, datos e imágenes en tiempo real; no tienen un soporte de transmisión de banda ancha (sobre fibra óptica) y no son utilizadas masivamente por todos los ciudadanos. Afirmaciones que sólo son parcialmente ciertas: tenemos el ejemplo de MBONE (ciertamente con una funcionalidad reducida respecto a la que ofrecen los canales de TV o la videoconferencia RDSI); también es posible ya charlar por la Internet con un simple PC y un software barato. En cuanto a la utilización de la fibra óptica de forma generalizada, es cuestión solamente de la extensión de esa infraestructura hasta las oficinas y hogares de los usuarios. Y el uso masivo de la misma dependerá en gran medida de la oferta de información disponible, de la calidad del servicio y del coste (relación calidad/precio).

A pesar de todo, quiero finalizar esta exposición diciendo que creo que la Internet y las autopistas de la información son redes de comunicación conceptualmente diferentes, y que espero que lo sigan siendo, del mismo modo que el sistema telefónico y la red de autopistas verdaderas (las carreteras) son diferentes en cuanto a su finalidad y uso.

Por ello, mi predicción y posiblemente mi deseo es que en el futuro habrá dos tipos de superautopistas de la información: una "Internet Plus", red digital de altas prestaciones, derivada de la Internet actual, de uso extendido entre diversas comunidades académicas, comerciales, culturales... pero cuyas raíces sigan estando en los sectores científicos e investigadores, financiada por el gobierno, las instituciones usuarias y los individuos particulares; con servicios comerciales, desde luego, pero sin depender apenas de publicidad y de anuncios. La otra superautopista surgiría de la tecnología y servicios de las industrias y medios de comunicación de masas, principalmente de las empresas de cable y de televisión, con una amplia gama de servicios interactivos multimeda que, para poder afrontar unas tarifas competitivas y razonables tendrá que apoyarse en reclamos publicitarios y propaganda comercial, al menos mientras se va implantando la infraestructura necesaria para ello. Este aspecto sería rechazado de forma contundente por los usuarios tradicionales de la Internet, normalmente más alejados de la contaminación y de las promesas vacuas de los medios de comunicación de masas. Eso no sería no podría ser ya la Internet; sería algo distinto, que en algunos círculos se ha bautizado como la "Antinet". Ambas superautopistas podrían compartir la infraestructura de comunicación banda ancha, pero funcionalmente serían redes diferentes.

15.- Conclusión

La Internet que conocí hace 20 años, la red de redes en la que, en años recientes, me esforcé por su implantación en España, la mayor red mundial de información distribuída, que se ha ido construyendo con la dedicación y el entusiasmo de los expertos, usuarios, suministradores, gobiernos... será dentro de otros 20 años algo muy distinto de lo que conocemos hoy.

Curiosa paradoja la de una red que nació en la época de la guerra fría, derivada de unas motivaciones un tanto siniestras. Muy pronto los usuarios la tomaron por asalto; desde entonces no la han soltado; la comunidad inicial se ha ampliado por todos los continentes, creando una nueva cultura de la información, con unas cotas de libertad que sobrepasan cualquier tipo de barrera artificial. A diferencia de lo que ocurre en organizaciones internacionales, aquí el consenso se ha logrado de forma natural. Quisiera que la probable y necesaria evolución de la Internet se mantuviera dentro de ese estilo machadiano y siguiera haciendo camino al andar.

Notas:

  1. En la actualidad BBN es un "superproveedor" de servicio Internet en EE.UU., al haber adquirido las redes regionales NEARnet (Nueva Inglaterra), BARRnet (Area de San Francisco) y muy recientemente SURAnet (red de las Universidades del Suroeste).

  2. Curiosamente Telefónica fue uno de los operadores (entonces "administraciones") de telecomunicación pioneros en este campo. Ya en 1971 había puesto en marcha una red pública de datos de conmutación de paquetes llamada Red Especial de Transmisión de Datos (RETD), precursora de Iberpac (todavía no se había normalizado el interfaz de acceso X.25).


José Barberá
Fundesco
Director del Dpto. de Redes
dirección de correo barbera [at] fundesco [dot] es