Lo quiero dedicar a todos los amigos y compañeros de la ETSI de Telecomunicación de Madrid, del Instituto Tecnológico para Postgraduados, del MIT, de Telefónica, de Fundesco y del Centro de Comunicaciones CSIC-RedIRIS, que de un modo u otro han intervenido en esta historia que relato, salpicada de referencias autobiográficas.
Mención especial la que hago a Larry Landweber, profesor de la Universidad de Wisconsin y vicepresidente actual de la Internet Society. Su claridad de ideas, su disposición a facilitar la comprensión de los acontecimientos que iban a llevar a la extensión mundial de la Internet a principios de esta década, y su interés personal por ayudar y seguir los desarrollos propios de cada país y en particular los del nuestro, le hacen acreedor de una deuda de gratitud de todos los usuarios de RedIRIS.
En otoño del año pasado se celebraron simbólicamente las "bodas de plata" de la Internet, al cumplirse los 25 años de su puesta en marcha. ¿Se hablaba en 1969 de la Internet? Evidentemente, no. ¿Qué acontecimiento tuvo lugar entonces para señalar ese año como el comienzo de la era de los internautas? Lo que ocurrió realmente en ese otoño del año en que el hombre había llegado a la luna fue la instalación y puesta en funcionamiento del primer nodo de ARPANET, en la Universidad de California en Los Angeles (UCLA). En diciembre ya había otros tres más: en el Instituto de Investigación de Stanford (SRI), en la Universidad de California en Santa Bárbara (UCSB) y en la Universidad de Utah. Se constituía de ese modo el embrión de lo que hoy es la red de redes Internet que se extiende por todos los continentes. Pero volvamos un poco más atrás para comprender cuales eran las motivaciones y propósitos de un experimento del Departamento de Defensa de los EE.UU.
A principios de la década de los 60 nos encontrábamos en plena psicosis de guerra fría. La posibilidad de un ataque nuclear era un supuesto manejado por las autoridades de EE.UU. Tras el temor a un desastre de ese tipo, la pregunta que se hacían era: ¿cómo nos podríamos comunicar tras una guerra nuclear?
Estaba claro que la América de esa época iba a necesitar una red robusta de mando y control, que uniera entre sí las bases esparcidas por todo el país. Sin embargo, por mucho que se protegieran los nodos y las líneas de comunicaciones, siempre subsistía la posibilidad de que una bomba nuclear alcanzase el centro de control, objetivo primordial del enemigo, con lo que la red quedaría inservible.
La corporación RAND, nido de estrategas de la guerra fría, hizo en 1964 una propuesta encaminada a combatir esa eventualidad: en primer lugar tal red no tendría una autoridad central; además habría que diseñarla desde el principio para que pudiera funcionar incluso en condiciones adversas, de modo que la destrucción de una parte no afectase al resto de los nodos. Así pues, se partía de que la red no sería nunca fiable y de que todos los nodos debían ser iguales, con la misma autoridad para enviar, pasar y recibir los mensajes. Estos se dividirían en "paquetes", cada uno de ellos con su propia identidad, que serían transportados independientemente desde un nodo de origen hasta otro de destino.
La ruta particular de cada paquete no importaba, sólo contaba el resultado final, es decir que existieran los mecanismos adecuados para recomponer el mensaje original en el lugar de destino. En esencia, cada paquete iría saltando de nodo en nodo como una patata caliente, más o menos en dirección a su destino. Si en el camino algún nodo fallaba, los paquetes quedaban como flotando en el aire, dirigiéndose a otros nodos vecinos que les permitirían sobrevivir. Nacía de este modo el concepto de red de conmutación de paquetes, un sistema de comunicación que podría ser dudosamente eficaz desde el punto de vista convencional (sobre todo si se compara con la red telefónica ordinaria), pero que sería enormemente robusto frente a adversidades y fallos.
Como se dijo antes, en diciembre de 1969 ARPANET, llamada así en honor a sus patrocinadores, tenía cuatro nodos, a los que se los conocía por las siglas IMP (Interface Message Processor), que unían los "superordenadores" por líneas dedicadas de "alta velocidad" (56 Kbps). Los científicos e investigadores podían de ese modo compartir recursos informáticos remotos e incluso programar remotamente los ordenadores, lo que resultaba particularmente interesante en aquellos años en los que el tiempo de máquina era un recurso especialmente valioso. En 1971 ARPANET contaba con 15 nodos y en 1972 ya había 40.
Sin embargo, durante el segundo año de funcionamiento, apareció un hecho no previsto inicialmente al diseñar el proyecto; los científicos usuarios de la red habían encontrado una funcionalidad adicional: podían enviar por ella mensajes personales para discutir sobre los trabajos en curso. Los usuarios-diseñadores habían convertido así la red de compartición de recursos informáticos en ¡una red privada de correo "electrónico", subvencionada con fondos públicos! Porque una vez abierta esa vía, con cuentas de usuario y direcciones personales de correo electrónico, la información que viajaba por la red no era solamente científica; los mensajes también trataban otros temas particulares e incluso cotilleos. Los usuarios estaban entusiasmados: ese servicio de comunicación personal era mucho más interesante que el diálogo remoto entre máquinas.
El paso siguiente fue el descubrimiento de las listas de distribución electrónicas, que permitían difundir un mismo mensaje a un gran número de personas interesadas sobre temas variopintos. Uno de los más populares fue el de ciencia-ficción, que no tenía que ver demasiado con el objetivo del proyecto, lo que en cierta medida contrarió a los responsables de ARPA. A pesar de ello, éstos no quisieron impedir ese uso heterodoxo de la red. Lo que inicialmente se concibió como una red de ordenadores para comunicarlos entre sí se había transformado en una red para la comunicación de personas y grupos, basada en ordenadores y en la conmutación de paquetes.
A la vista de esa situación, en 1973 ARPA rebautizada entonces como DARPA lanzó una nueva iniciativa con el objetivo de investigar técnicas y tecnologías para unir redes de paquetes de varios tipos. La idea era desarrollar protocolos de comunicación que permitieran a los ordenadores comunicarse de modo transparente a través de distintas redes de paquetes interconectadas. Esta iniciativa fue bautizada como Proyecto Internetting, del que ha derivado el nombre actual de Internet. El sistema de protocolos desarrollados en el curso de ese proyecto es lo que se conoce como la serie de protocolos TCP/IP, por el patronímico de los dos primeros: Transmision Control Protocol (TCP) e Internet Protocol (IP), sucesores del NCP original. El primero de ellos trocea en paquetes los mensajes generados en el origen, y luego los recompone en el nodo de destino. El Protocolo IP se ocupa del direccionamiento de los paquetes, de modo que estos puedan viajar por rutas diversas, atravesando múltiples nodos e incluso por diferentes redes con distintos estándares de comunicación.
De este modo conocí la red ARPA y la técnica de conmutación de paquetes. Tuve ocasión de asistir a seminarios protagonizados por profesores del MIT, la Universidad de Harvard y de BBN[1] (Bolt, Beranek and Newman), activa empresa de Cambridge (Massachusetts) en el desarrollo de ARPANET, que en 1969 había fabricado el primer nodo IMP (basado en un Honeywell DDP 516) que se instaló en UCLA.
En aquellos años no tuve ocasión de experimentar la red ARPA como usuario. Aquella tarea estaba reservada a los investigadores de primera línea; el uso no era fácil, ni mucho menos accesible a los neófitos que solamente estábamos de paso. El estudio de los protocolos TCP e IP, los IMP los TIP (Terminal IMP), etc. no formaba entonces parte de la enseñanza reglada. Había que seguir los temas a base de seminarios, charlas y alguna que otra tesis doctoral de las que iban saliendo entonces. Yo hice mi tesis de Master of Science sobre modelos de encaminamiento en redes de ordenadores, basados en la teoría de la difusión, algo que casi 20 años después apenas recuerdo, ni sé si ha servido para algo (probablemente no).
A mi vuelta a España presenté la tesis doctoral sobre otro tema de redes de ordenadores, ahora centrándome en el control dinámico de redes con canales de acceso múltiple (como el sistema Aloha y la Ethernet). Ni que decir tiene que me resultaría imposible actualmente entender muchas cosas de las que entonces escribí, más allá de que había muchas colisiones entre los múltiples paquetes que surgían de todas partes y variadas probabilidades de retransmisión
Sin embargo, una cosa era cierta: sabía claramente qué eran las redes de paquetes y cómo funcionaban esos protocolos tan caóticos que, milagrosamente, eran capaces de recomponer en el destino los mensajes originales. ¿Lo sabía realmente?
Eso me creía yo hasta que empecé a colaborar con un grupo de expertos de la División de Informática de Telefónica que empezaba a trabajar sobre redes de datos de conmutación de paquetes[2]. Pero esas redes eran distintas de las que había conocido en EE.UU. Se basaban en algo llamado X.25, que no era un protocolo de comunicación entre nodos de red (como el IP), sino más bien un interfaz de acceso a la misma desde el terminal de datos del abonado, normalizado por el CCITT para las redes públicas de datos de los operadores telefónicos.
La recomendación X.25, además de no aclarar para nada lo que les ocurre a los paquetes cuando viajan de un nodo a otro, presentaba una característica muy rara respecto a lo que yo había aprendido: al contrario que en ARPANET, en donde los paquetes se mueven caóticamente siguiendo caminos diferentes, ahora esos paquetes van todos ordenados por unas rutas fijas entre origen y destino (llamadas "circuitos virtuales"), que no se alteran mientras se mantiene abierta la llamada. Pero entonces, ¿qué clase de red es esa en la que antes de empezar a enviar paquetes hay que hacer una llamada y asegurar un camino fijo entre el origen y el destino? ¿Acaso no es eso como la red telefónica normal? La sorpresa inicial desaparece enseguida cuando uno piensa que, a fin de cuentas, el diseño lo ha hecho la compañía que da el servicio telefónico.
Una vez superado el impacto inicial, empiezo a comprender la motivación que sostiene el X.25. Las líneas de entonces no tienen la calidad suficiente para la transmisión de datos, puede haber errores y, por tanto, el protocolo de comunicación ha de ser lo suficientemente redundante para permitir retransmisiones y corrección de esos errores. De este modo, la tecnología X.25 proporciona una red de alta calidad que asegura a los equipos terminales de datos (así designa el CCITT a los ordenadores y a los terminales de usuario) que la información que les llega es correcta. Además, X.25 permite negociar determinados parámetros y tarificar en distintas modalidades. Pequeño detalle éste del pago en el que no había caído en la cuenta hasta entonces.
Pero hay más; a finales de los 70 se anuncia que la Organización Internacional de Normalización (ISO) está desarrollando un modelo arquitectónico de referencia basado en la interconexión de sistemas abiertos (OSI), que es el futuro en lo referente a redes. Decidí olvidarme de ARPANET y sus protocolos; aquello era algo de los americanos y, en cualquier caso, pertenecía al pasado: ¡el futuro era OSI! Volvamos ahora al otro lado del Atlántico.
Mientras tanto el uso de los protocolos TCP/IP se fue generalizando en otras redes para su conexión a ARPANET, que seguía creciendo de forma sostenida.
En 1983 se desgajó de ésta la parte relacionada con la defensa, que se llamó MILNET. A pesar de su crecimiento ARPANET fue quedando como una comunidad más reducida frente a otras que iban surgiendo, impulsadas por la necesidad de conectar las nuevas y potentes máquinas que proliferaban, las cuales se interconectaban entre sí mediante los protocolos TCP/IP, que actuaban como un pegamento transparente que unía múltiples redes sin costuras aparentes. Puesto que el software TCP/IP era de dominio público y la tecnología básica era descentralizada y más bien anárquica, era imposible frenar el impulso de interconexión de los usuarios. De hecho nadie quería impedir la interconexión de todas esas redes.
De este modo, nace en 1983 la Internet como red de interconexión entre ARPANET, MILNET y CSNET, unidas todas ellas por los protocolos TCP/IP, y a las que se irían añadiendo posteriormente otras redes, de EE.UU. y de otros países.
Los diferentes nodos de esa red de redes, algunos de los cuales alcanzaban ya Europa (Reino Unido y Noruega), fueron catalogados de acuerdo con el país de origen, pero la mayoría de los de EE.UU. decidieron dividirse en seis "dominios" básicos: edu, mil, gov, org, com y net (tipo éste de abreviaciones comunmente encontrado en la Internet), para designar el campo de actividad de los usuarios. Además de los ámbitos tradicionales académicos, militares y del gobierno, entraban en escena otras organizaciones no lucrativas, aunque también empresas comerciales que pronto vieron la utilidad de pertenecer a este club un tanto anárquico, aunque apasionante.
ARPANET, que había comenzado su declive desde la entrada en escena de NSFnet, expiró pacíficamente en 1989, víctima de su propio éxito; sus usuarios apenas notaron su desaparición, por cuanto que su funcionalidad no solamente permaneció sino que fue mejorando continuamente.
Sin embargo, no había que perder la esperanza. Era sólo cuestión de tiempo que los fabricantes de ordenadores y las casas de software empezaran a ofrecer los productos adecuados a los distintos niveles de OSI. Ofrecer, lo que se dice ofrecer, era cierto que los ofrecían; pero había que ver a qué precio y con qué grado de compatibilidad. En las redes de I+D que empezaban a utilizar el correo X.400 pronto se implantaron los productos académicos, menos completos que los comerciales y sin un mantenimiento estable, pero más fáciles de instalar y con mejores interfaces de usuario. Tales redes usaban normalmente la infraestructura X.25 de las redes públicas de datos, lo que era una ventaja a la hora de la gestión, que quedaba en manos del operador. Asimismo, el acceso desde un terminal remoto quedaba solucionado por las facilidades XXX (X.28, X.3 y X.29) que ofrecían esas redes. Sólo había que aprenderse los números de la dirección X.121 correspondiente (¡9-13 cifras!), y a teclear.
En cuanto al nonato FTAM, no consiguió pasar de experimentaciones de dudosa eficacia, pero sin lograr ir más allá de la T. La A y la M no lograron despegarse nunca de su lugar en el abecedario.
Las declaraciones de apoyo a OSI iban en creciente aumento sobre todo en países europeos mejor organizados o más firmes y ortodoxos en sus convicciones: Alemania, Reino Unido..., en relación inversamente proporcional al desarrollo e implantación real de productos. Con todo había un hecho esperanzador: el Departamento de Defensa y la NSF de EE.UU. habían anunciado la decisión de sustituir los protocolos TCP/IP por los de OSI, en un plazo "relativamente breve" (¿1992?, ¿1993...?). Inmejorable situación para los de las redes de I+D europeas que andábamos ya más avanzados por el buen camino. Quedaba únicamente por solucionar el problema de cómo hacer compatibles los dos mundos: el nuestro, el mundo abierto de OSI, con el de los pobres desdichados de la Internet, encerrados en su isla por los protocolos TCP/IP.
La descentralización de la informática en las universidades y centros de investigación fue consolidándose progresivamente, aislando de este modo a los usuarios de los recursos comunes, lo que iba asimismo en detrimento de la comunicación personal. Surgieron así las redes locales de diversas tecnologías, que restauraban esa conectividad perdida; la Ethernet fue encontrando una mayor aceptación en los ámbitos académicos y de investigación. Por otro lado, el uso del sistema operativo UNIX se iba generalizando masivamente entre los científicos informáticos.
La combinación de UNIX con Ethernet y otras tecnologías de red de área local dispara el crecimiento de productos Internet a partir de 1985. DARPA había invertido fondos significativos para que BBN desarrollase una implementación de TCP/IP sobre UNIX que fue después trasladado al UNIX de Berkeley V4.2. El paso siguiente fue la adopción de BSD por Sun como sistema de base para sus productos comerciales.
A partir de entonces, y coincidiendo con la implantación de la NSFnet, comienza una demanda creciente de conectividad Internet y de ancho de banda. Los operadores de EE.UU. proporcionan los enlaces y aparecen empresas informáticas que sacan al mercado máquinas especializadas para el encaminamiento (los routers).
Por otro lado, como tentáculos del pulpo gigante en el que se va convirtiendo NSFnet, entran en escena las redes de nivel intermedio o redes regionales, impulsadas y patrocinadas por la NSF como parte de las iniciativas de NSFNet. Algunos de esos tentáculos llegan ya a otros continentes: Europa, Australia, Japón... Además surgen los primeros proveedores comerciales, que proporcionan el servicio a empresas privadas sin relación de patrocinio con la NSF.
Resultado: la red de redes Internet había extendido su capilaridad hasta llegar prácticamente hasta el mismo puesto de trabajo de los usuarios conectados a sus redes locales. Ahora éstos tenían a su alcance una serie de recursos informáticos (correo, ficheros, listas, acceso remoto...) distribuídos por todo el mundo, recursos que hasta entonces veían solamente de modo local. El diseño del TCP/IP y la posibilidad de su infiltración a todos los niveles, sobre diferentes tecnologías y medios, habían hecho posible semejante proeza. Algo no considerado cuando se diseñaron los protocolos TCP/IP, con la consiguiente influencia sobre el espacio de direcciones de la Internet que, como se verá más adelante, se quedó corto, siendo en la actualidad uno de los problemas a los que debe enfrentarse esta red.
Florecen las redes de I+D en Europa; en España ya ha comenzado el Programa IRIS para crear la red académica nacional. Es entonces cuando surge el problema de la interconexión de las redes de área local mediante redes de área extensa: el famoso problema LAN/WAN que figuró con uno de los objetivos estratégicos del Proyecto COSINE.
No quiero entrar ahora en las complejidades técnicas del asunto. Por simplificar diré únicamente que se trataba de interconectar (principalmente) Ethernets mediante redes de paquetes X.25 (públicas o privadas), en el nivel 3 (de red) del esquema OSI. La dificultad radicaba en unir redes diferentes en cuanto a conectividad extremo a extremo: las locales (no conectivas) y las X.25 (conectivas). Se propusieron varias soluciones: pasarelas de transporte (por encina del nivel de red), pasarelas de red (¡llevar el nivel de red X.25 sobre el del enlace de la LAN!), poner el IP sobre X.25 (pero el IP de ISO, ¡ya que el IP de Internet se suponía iba a ir migrando hacia OSI!). Y mientras tanto, dada la existencia de aplicaciones TCP/IP en las LAN de los investigadores y la necesidad de comunicación con los de la Internet, se proponía un escenario lleno de pasarelas de aplicación: correo electrónico, terminal remoto, ¡transferencia de ficheros!
El resto de la historia es bien conocida: el fracaso de todas las predicciones fue algo tan sonado como cuando la crisis del petróleo de los años 70. Afortunadamente para mí y para todos los usuarios de RedIRIS, creo en aquellos años "oscuros", entre el 87 y el 90, tuve la fortuna de mantenerme en contacto con el mundo Internet gracias a los seminarios que organizaba Larry Landweber. Anualmente nos reuníamos un grupo relativamente reducido de 40-60 personas de diversos países para tratar de entender el problema global de la interconexión de redes de I+D. Esos encuentros finalizaron en un momento dado para dar lugar a la primera conferencia internacional INET'91 en Copenhague, en la que se anunció la constitución de la Internet Society (ISOC) para enero del año siguiente.
De este modo, la nave de RedIRIS que entonces dirigía pudo virar 180º y tomar el rumbo adecuado. Volvía a mis orígenes de los 70 en el tema de las redes. ¿Qué había ocurrido en esos años para que todos los supuestos de los sistemas abiertos de ISO fueran quedando como material de archivo?
La clave del éxito estaba en la camiseta de Vint Cerf, precisamente uno de los principales artífices del desarrollo de los protocolos TCP/IP. La simplicidad y flexibilidad del protocolo IP habían hecho posible su funcionamiento sobre todo tipo de tecnologías de red: LAN, X.25, FDDI, Frame Relay, RDSI, ATM... lo que llevaba seguidamente al uso del resto de protocolos TCP/IP y de las correspondientes aplicaciones. Otro factor importante del éxito frente a las redes X.25 era que mientras en éstas las aplicaciones quedaban al margen del proveedor de red, dejando a los diferentes usuarios la decisión sobre los servicios que querían transportar, en la Internet aquellas han ido unidas desde el principio a los protocolos TCP/IP. Y así, además de las tradicionales de SMTP, FTP, Telnet y News, hemos podido ver cómo se ha expandido rápidamente una plétora de nuevos servicios de búsqueda y acceso a información tales como Archie, Gopher, WAIS y WWW, que han convertido a la Internet en una colección de comunidades virtuales que han traspasado las barreras políticas y geográficas, en la que participan sectores de todo tipo: académicos, científicos, comerciales, culturales, de la administración, de la enseñanza media, etc.
Pero, ¿qué es lo que ha llevado a toda esa gente tan diversa a querer estar conectados a la Internet?
La Internet no va acompañada de siglas como S.A., Inc., Ltd., ... No tiene dueño, no hay un consejo de administración, ni junta de accionistas; no hay negociados, no hay jefes, no hay censores oficiales... Hay solamente una serie de normas técnicas (TCP/IP) y otras de buen uso y costumbre que se espera sigan todos los usuarios. Es una red democrática: todos los nodos pueden "dialogar" entre ellos de igual a igual. Lo mismo ocurre entre los individuos: todos pueden comunicarse entre sí y navegar por ese océano inmenso de información que es la Internet actualmente. La gente en la Internet se siente como en su propia casa o en su organización. Es una "institución" que se resiste a ser institucionalizada. Pertenece a todos y a nadie a la vez; cada individuo y cada organización es el dueño de sus máquinas y de su información.
Mucha gente se ha dado cuenta que la Internet es una ganga. Al contrario de lo que ocurre en el servicio telefónico, aquí no hay facturación en función de la distancia. La Internet, a diferencia de otras redes comerciales, tampoco factura por el tiempo de acceso y por el volumen de tráfico; (otra cosa es lo que haga cada proveedor de servicio en función de su esquema tarifario).
Además de lo anterior hay otro factor clave que ha permitido la expansión de ese fenómeno: la cooperación. Si bien es cierto que se ha contado con cuantiosas subvenciones estatales, también lo es el hecho de que ha habido numerosos individuos e instituciones que han colaborado desinteresadamente en el desarrollo de nuevos procedimientos y aplicaciones, cuyo uso se ha ido extendiendo porque otros han colaborado con críticas, sugerencias, pruebas y mejoras.
En ese sentido hay que reseñar una diferencia fundamental entre la forma de elaborar "estándares" en la Internet y los de las organizaciones de normalización como ISO. En ésta las distintas comisiones técnicas discuten propuestas complejas y muy elaboradas que luego elevan a los niveles superiores de decisión. El problema está en que durante ese proceso, en el que normalmente hay que consensuar diversos intereses encontrados, la tecnología avanza de forma imparable, y del mismo modo crecen las demandas y exigencias de los usuarios. Mientras tanto se espera que los fabricantes desarrollen productos para un mercado que no ven claro.
En la Internet, por el contrario, se ha seguido un proceso inverso: primero desarrollar, luego probar y después normalizar. De este modo, cuando un estándar llega a ser estable ya hay productos que lo implementan; el mercado ha surgido de forma natural.
En resumen, la estrategia de la Internet ha ido de abajo a arriba, por el impulso que han dado los propios usuarios al desarrollo y mejora del servicio, por la colaboración entre múltiples grupos e instituciones, y por la ausencia de innecesarias trabas de tipo burocrático y administrativo.
La propia red de teleconferencia MBONE, basada en la técnica del IP Multicast, está imbricada como una subred especializada dentro de la Internet general. A pesar de tener unos requisitos diferentes, al ser aplicaciones en tiempo real más críticas en cuanto a pérdidas de paquetes y retardos, esa técnica permite actualmente recibir audio y vídeo de diversas conferencias. De nuevo han sido los propios grupos de desarrollo de la Internet los que la han impulsado, por la necesidad de contar con un instrumento de trabajo para sus reuniones virtuales.
El ancho de banda, a pesar de haberse ido abaratando como consecuencia de la liberalización de las telecomunicaciones, sigue siendo un recurso escaso para este tipo de aplicaciones.
El otro tema acuciante es el del espacio de direcciones. En los años 73 y 74 se había considerado un número máximo de 256 redes. Había sólo una LAN en Xerox PARC y el resto eran regionales o nacionales en EE.UU. Cuando se hizo evidente que habría muchas más redes locales, los expertos inventaron el concepto de clases A, B y C, lo que racionalizaba considerablemente el problema del espacio de direcciones. Pero en lo que los expertos no cayeron en la cuenta entonces fue que los protocolos de encaminamiento y la topología de la Internet cada vez más extensa y difusa no se adaptaban bien a un número de redes tan grande como el que se avecinaba. Y eso resume el otro gran reto actual: la Internet no puede seguir creciendo con el mismo esquema.
Una posible vía de abordar el problema del ancho de banda es mediante la separación de servicios en clases y la correspondiente asignación de recursos, según la mayor o menor necesidad de respuesta en tiempo real y de la interactividad en un momento dado. También se contemplan otras tecnologías de red de banda ancha, tales como el ATM, que en este momento es sólo una promesa ante la falta de un estándar global y de equipos compatibles. Para el tema del direccionamiento IP se está desarrollando el IPng (IP nueva generación), con un espacio mayor de direcciones y con la posibilidad de encaminar los paquetes en función de la dirección de origen y del tipo de información transmitida. De igual modo está la posibilidad de elección dinámica del proveedor.
Por último, ante el creciente uso comercial de servicios, queda pendiente el desarrollo de mecanismos fiables de seguridad y confidencialidad, algunos de los cuales ya se usan de forma restringida, aunque con aspectos legales todavía no resueltos debida a la diferente jurisprudencia de cada país.
Para estos conflictos de intereses no se ha hallado todavía una solución definitiva. Todo el mundo quiere tirar de la cuerda en su dirección y en su propio beneficio, aunque teniendo en cuenta que no se puede forzar demasiado desde un lado, no sea que se rompa el estado actual de consenso que ha hecho posible el éxito actual.
Ése ha sido hasta ahora el modo de hacer en la Internet: por consenso. Sería desafortunado que esos hábitos se vieran alterados por intereses particulares de grupos de presión. Por suerte, está la Internet Society que, aunque no es ni mucho menos un órgano de gobierno en la Internet, se ocupa de tutelar el desarrollo y evolución de la misma, racionalizando los recursos disponibles y proporcionando el foro para el necesario consenso.
Por eso se suele plantear con cierta frecuencia la pregunta "¿es la Internet una de estas superautopistas de la información (al menos un embrión de las mismas)?". Seguramente muchos darán una respuesta afirmativa, especialmente al considerar la posibilidad de evolución de la Internet a una de esas superautopistas (yo mismo así lo he expresado en otras ocasiones). Otros dirán que no, que la Internet carece de las características que definen a esas vías de información del futuro, a saber: no integran voz, datos e imágenes en tiempo real; no tienen un soporte de transmisión de banda ancha (sobre fibra óptica) y no son utilizadas masivamente por todos los ciudadanos. Afirmaciones que sólo son parcialmente ciertas: tenemos el ejemplo de MBONE (ciertamente con una funcionalidad reducida respecto a la que ofrecen los canales de TV o la videoconferencia RDSI); también es posible ya charlar por la Internet con un simple PC y un software barato. En cuanto a la utilización de la fibra óptica de forma generalizada, es cuestión solamente de la extensión de esa infraestructura hasta las oficinas y hogares de los usuarios. Y el uso masivo de la misma dependerá en gran medida de la oferta de información disponible, de la calidad del servicio y del coste (relación calidad/precio).
A pesar de todo, quiero finalizar esta exposición diciendo que creo que la Internet y las autopistas de la información son redes de comunicación conceptualmente diferentes, y que espero que lo sigan siendo, del mismo modo que el sistema telefónico y la red de autopistas verdaderas (las carreteras) son diferentes en cuanto a su finalidad y uso.
Por ello, mi predicción y posiblemente mi deseo es que en el futuro habrá dos tipos de superautopistas de la información: una "Internet Plus", red digital de altas prestaciones, derivada de la Internet actual, de uso extendido entre diversas comunidades académicas, comerciales, culturales... pero cuyas raíces sigan estando en los sectores científicos e investigadores, financiada por el gobierno, las instituciones usuarias y los individuos particulares; con servicios comerciales, desde luego, pero sin depender apenas de publicidad y de anuncios. La otra superautopista surgiría de la tecnología y servicios de las industrias y medios de comunicación de masas, principalmente de las empresas de cable y de televisión, con una amplia gama de servicios interactivos multimeda que, para poder afrontar unas tarifas competitivas y razonables tendrá que apoyarse en reclamos publicitarios y propaganda comercial, al menos mientras se va implantando la infraestructura necesaria para ello. Este aspecto sería rechazado de forma contundente por los usuarios tradicionales de la Internet, normalmente más alejados de la contaminación y de las promesas vacuas de los medios de comunicación de masas. Eso no sería no podría ser ya la Internet; sería algo distinto, que en algunos círculos se ha bautizado como la "Antinet". Ambas superautopistas podrían compartir la infraestructura de comunicación banda ancha, pero funcionalmente serían redes diferentes.
Curiosa paradoja la de una red que nació en la época de la guerra fría, derivada de unas motivaciones un tanto siniestras. Muy pronto los usuarios la tomaron por asalto; desde entonces no la han soltado; la comunidad inicial se ha ampliado por todos los continentes, creando una nueva cultura de la información, con unas cotas de libertad que sobrepasan cualquier tipo de barrera artificial. A diferencia de lo que ocurre en organizaciones internacionales, aquí el consenso se ha logrado de forma natural. Quisiera que la probable y necesaria evolución de la Internet se mantuviera dentro de ese estilo machadiano y siguiera haciendo camino al andar.